NOTE DE SYNTHÈSE Rédacteur informaticien 2014

Transcription

NOTE DE SYNTHÈSE Rédacteur informaticien 2014
NOTE DE SYNTHÈSE
Rédacteur informaticien 2014
Les données ouvertes, ou open data, désignent des données numériques d’origine publique ou privée,
mises à la disposition du plus grand nombre.
À l’aide des documents suivants, vous exposerez de façon structurée la définition, la mise en œuvre, les
usages, les risques et les perspectives de l’open data.
LISTE DES DOCUMENTS JOINTS
1.
Open Data Is Not Just For Governments Anymore… – Jennifer Belissent
http://blogs.forrester.com – 21/02/2013 – 3 pages
2.
Gartner Says Big Data Makes Organizations Smarter, But Open Data Makes Them Richer
www.gartner.com – 22/08/2012 – 2 pages
3.
L’open data comme objet politique : transparence vs participation ? – Morgane Gaulon-Brain
www.zdnet.fr – 14/12/2012 – 1 page
4.
How the Global Open Data Movement is Transforming Journalism – Jeanne Bourgault
www.wired.com – 31/05/2013 – 2 pages
5.
Why Open Data Alone Is Not Enough – Jesse Lichtenstein
www.wired.com – 28/06/2011 – 1 page
6.
Données ouvertes (extraits)
http://fr.wikipedia.org – 4 pages
7.
Charte du G8 pour l’Open Data : la France dévoile son plan d’action – Xavier Berne
www.pcinpact.com – 08/11/2013 – 3 pages
8.
La lente marche des données publiques vers l’Open Data – Sandrine Cassini
www.lemonde.fr – 13/10/2013 – 2 pages
9.
L’Open Data : les risques potentiels de l’ouverture des données publiques – Antoine Chéron
www.journaldunet.com – 01/03/2011 – 3 pages
10. Sur Data.gouv.fr, l’accès aux données publiques devient collaboratif – Édouard de Mareschal
www.lefigaro.fr – 31/12/2013 – 1 page
11. Open Data : pour le bien des entreprises et des finances publiques – Bertrand Paul
http://lecercle.lesechos.fr – 21/11/2013 – 3 pages
12. Open data : ouvrir ses données au public, ça peut rapporter gros
Vincent Berdot et Olivier Discazeaux – http://pro.01net.com – 21/08/2013 – 3 pages
1
Open Data Is Not Just For Governments Anymore...
... Nor has it ever really been. Government data has long been a part of strategic business
analysis. Census data provides insights into local standards of living and household budgets,
health needs, education levels, and other factors that influence buying patterns for all kinds of
goods and services. The US Bureau of Labor Statistics and the International Labour
Organization provide data on employment and the availability of skilled labor that helps inform
decisions on where to locate manufacturing or other facilities. The World Bank and UN data
provides insights into global trends.
Moreover, the release of government data has itself spurred billion-dollar industries. Think
weather data released in the 1970s by the National Oceanic and Atmospheric Administration –
which gave birth to the weather industry and services like Accuweather, weather.com,
wunderground, and newer services like ikitesurf.com’s “wind and where.” Data from the US
Global Positioning System (GPS) was opened to civilian and commercial use in the 1980s and
has given rise to thousands of location-based services. Think FourSquare, Yelp, and Where’s
The Bus?
At the city and local government level, open data complements these existing data sources with
data on government assets, operations, and performance. And, at the federal level, the mandate
to further open public data through the Health Data Initiative [8] and other federal data
initiatives in Energy, Education, and other industries expands available data sources.
What can you do with this data? Innovate. And, if you don’t, your competitors will. New
competitors will rise up and disrupt the status quo in all industries. There are already some great
examples of companies using government data to complement their internal data for strategy
decisions, for product innovation, and for new services themselves.
Healthy example of data innovation
The health industry has feverishly adopted the use of data to enhance existing services and
provide new ones.
•
Healthgrades.com provides a comprehensive source of information on hospitals and
doctors, aggregating data on clinical outcomes, patient safety, and patient satisfaction.
Healthgrades aggregates data from a variety of sources, including the Centers for
Medicare and Medicaid Services, surveys from HCAHPS (Hospital Consumer
Assessment of Healthcare Providers and Systems), Scientific Registry of Transplant
Recipients, and data from individual states and other healthcare bodies. Apparently,
people spend more time researching purchases of a car or refrigerator than their doctor:
34% of Americans spend less than 1 hour researching a physician.
•
100Plus takes basic health information (weight, height, diet, activities, stress level) and
creates a benchmark that is used to compare people to those with similar attributes. Their
health predictions are based on large amounts of information culled from sources like the
National Institutes of Health and the Centers for Disease Control.
•
Healthline provides a health search engine that has ingested massive amounts of data
from Health and Human Services (HHS) agencies and other sources to help make
Internet searches on health topics and issues substantially more reliable, accurate, and
helpful. Healthline registers over 100 million search entries per month, making it the
largest health search engine on the Internet.
RI 2014
1/3
http://blogs.forrester.com
21/02/2013
1
And, data innovation is not limited to startups:
•
Aetna has integrated HHS data on everything from care provider quality to the
availability of eldercare support services to the latest medical education information for
patients into an “IT cockpit” for nurse case managers in its call centers to help these
nurses provide information-rich support for patients. Aetna recently acquired
Healthagen, the developer of the mobile app iTriage, a mobile and web platform that
allows patients to make better informed health decisions. iTriage has used HHS health
facility locator databases to help consumers find nearby care providers. The app has over
3 million downloads on the iTunes store.
Banking on data innovation
The banking industry has equally invested in the data revolution as cited in a recent Wall Street
Journal blog :
•
JPMorgan Chase generates a vast amount of credit card information and other
transactional data about US consumers. Several months ago, it began to combine that
database, which includes 1.5 billion pieces of information, with publicly available
economic statistics from the US government. Then it used new analytic capabilities to
develop proprietary insights into consumer trends and offer those reports to the bank’s
clients. The technology allows the bank to break down the consumer market into smaller
and more narrowly identified groups of people, perhaps even single individuals. And
those new reports can be generated in seconds, instead of weeks or months, JPMorgan
Chase CIO Guy Chiarello told CIO Journal.
•
Citi, for its part, is experimenting with new ways of offering commercial customers
transactional data aggregated from its global customer base, which clients can use to
identify new trade patterns. “New silk roads are being created, and we think this
information could show signs for which might be the next big cities in emerging
markets,” says Don Callahan, who manages internal operations and technology at Citi.
According to Mr. Callahan, the bank shared such information with a large Spanish
clothing company, which it was able to use to determine where to open a new
manufacturing facility and several new stores.
Embracing The Open Data Model
Companies are not just using data themselves, they are inviting others in to see and use their
data.
•
RI 2014
In 2008, Mint.com launched Mint Data, an initiative that aggregated anonymous
spending data from Mint’s users to give real-time insight on what people were spending
on across the country. The data was able to identify the most popular restaurants in San
Francisco (by visits), the top shopping spots in New York City (by highest average
spend), and the highest spending cities in the US. Mint Data also showed spending data
both by average purchase price and by popularity, which is defined by number of
transactions per month. The rankings could be viewed by category, such as “food and
dining,” by specific business, and broken down to the city level. For example, Mint Data
showed that the average spend at a Starbucks in New York City is $5.38.
2/3
http://blogs.forrester.com
21/02/2013
1
Mint Data was a little ahead of its time. But Intuit has now launched a new data program for
developers that provides access to:
•
•
Over 65 million accounts and 11 million users supported today.
•
Financial data from over 19,000 financial services organizations across
the US and Canada.
•
Aggregate consumer and business financial account data, plus autocategorized transactions.
•
Secure API for cost-effective, self-serve data access.
•
SDKs for .NET and Java to accelerate development of your app.
In another example, Credit Agricole [25] (CA) has launched a developer program with
the slogan “applications for you and by you.” The CA Store is a co-creation platform
that brings together the bank’s customers – and their application needs – and
independent developers and provides the developers with access to anonymised banking
data. The CA Store provides an app store making available these new applications and
services.
I’ll stop there with my examples. As you can likely tell, I’m excited about the data opportunity.
I’ve been a data geek for a long time: Ask me about running policy simulations all night long on
housing data in Russia. And now the data revolution and the new “data economy” are really
democratizing the use of data and the benefits that it provides.
Jennifer Belissent
RI 2014
3/3
http://blogs.forrester.com
21/02/2013
2
Gartner Says Big Data Makes Organizations Smarter, But
Open Data Makes Them Richer
Open Data on the Agenda for Gartner Symposium/ITxpo, October 21-25, Orlando, Florida
Whereas "big data" will make organizations smarter, open data will be far more consequential
for increasing revenue and business value in today's highly competitive environments, according
to Gartner, Inc.
"Big data is a topic of growing interest for many business and IT leaders, and there is little doubt
that it creates business value by enabling organizations to uncover previously unseen patterns
and develop sharper insights about their businesses and environments," said David Newman,
research vice president at Gartner. "However, for clients seeking competitive advantage through
direct interactions with customers, partners and suppliers, open data is the solution. For
example, more government agencies are now opening their data to the public Web to improve
transparency, and more commercial organizations are using open data to get closer to customers,
share costs with partners and generate revenue by monetizing information assets."
Gartner analysts believe an open data strategy should be a top priority for any organization that
uses the Web as a channel for delivering goods and services. Open data strategies support
outside-in business practices that generate growth and innovation. Enterprise architects help
their organization connect independent open data projects by creating actionable deliverables
and information-sharing practices that generate business-focused outcomes for achieving
strategic customer growth and retention objectives.
Gartner analysts said that any business that has a data warehouse should consider how it can use
data as a strategic asset and revenue generator. Maturing technologies for data quality and data
anonymization can help mitigate regulatory restraints and risk factors. Open data APIs provide
simple, Web-oriented means for data exchange, and linked data techniques are effective for
generating big datasets. When considering the long-term benefits of an open data strategy,
organizations should investigate the types of data exchange now emerging where information
producers and consumers share data for profit.
Emerging data marketplaces are also places for organizations to open their data — potentially
turning their "data into dollars." The challenge is to keep the barriers to entry low to enable
participation by different types of business and streamlined processes for adding and vetting
data sources. Monetizing data is a technological and operational challenge. If an enterprise's
goal is to unlock its data's full revenue potential, it needs to be able to reach all possible data
buyers efficiently.
"With tight budgets and continued economic uncertainty, organizations will need leaders who
can craft breakthrough strategies that drive growth and innovation," said Mr. Newman. "As
change agents, enterprise architects can help their organizations become richer through
strategies such as open data."
Although openness is a pervasive and persistent issue in IT, there is very little agreement about
exactly what "open" means. According to Gartner analysts, an informal definition of openness is
a level playing field where everyone can play a game that can evolve. There is a positive
relationship between the openness of information goods (for example, code, data, content and
standards) and information services (for example, services that offer information goods, such as
RI 2014
1/2
www.gartner.com
22/08/2012
2
the Internet, Wikipedia, OpenStreetMap and GPS) and the size and diversity of the community
sharing them. From the viewpoint of enterprise information architects, this is known as the
information-sharing network effect: the business value of a data asset increases the more widely
and easily it is shared.
Open data APIs are a lightweight approach to data exchange. Their use is now considered a best
practice for opening data and functionality to developers and other businesses. Organizations
use APIs to generate new sources of revenue, spur innovation, increase transparency and
improve brand equity.
"The challenge for organizations is to determine how best to use APIs and how an open data
strategy should align with business priorities," Mr. Newman said. "This is where enterprise
architects can help. While some internal IT functions may be using APIs to fulfil local or
specific application needs, the enterprise architecture process harvests and elevates good works
as first-class strategic priorities that create business-focused outcomes. As a strategic enabler,
APIs are a powerful means with which to build an ecosystem, and a first step toward monetizing
data assets."
RI 2014
2/2
www.gartner.com
22/08/2012
3
L’open data comme objet politique : transparence vs
participation ?
Les données ouvertes ont la particularité d’être nées de la pratique et non d’un dispositif législatif
(comme c’est le cas pour les données publiques). La création du terme open data remonte à 1995,
même s’il n’est apparu que récemment dans le champ politique, comme le rappelle Simon Chignard,
spécialiste de l’open data.
C’est en effet l’Open Government Initiative portée par Barack Obama dès le lendemain de son
investiture en janvier 2009 qui a marqué l’amorce politique du phénomène. Tim O’Reilly a joué un
rôle clef dans la genèse des données ouvertes en réunissant un groupe de travail de trente personnes
(sponsorisé par Yahoo et Google) en décembre 2007 à Sebastopol en Californie. L’Open Government
Working Group a défini huit principes de l’Open Governement Data : « Data Must Be Complete /
Primary / Timely / Accessible / Machine processable / Non-Discriminatory / Non-Proprietary /
License-free ».
Cette étape a constitué une avancé majeure dans la définition des données ouvertes. Pourtant, Simon
Chignard considère que c’est aussi à ce moment-là, aux États-Unis, qu’est né « le péché originel » de
l’open data, avec l’émergence de deux lectures : la transparence des gouvernements et la participation
citoyenne.
Celles-ci constituent les promesses fondatrices de l’open data. Plus ou moins contradictoires, elles se
révèlent néanmoins complémentaires, puisqu’elles fondent ensemble les piliers de l’open démocratie.
En pratique, ces lectures variables de l’open data traduisent l’émergence de trois courants, dont les
visions se distinguent par la force variable accordée à ces promesses centrales que sont la transparence
et la visibilité :
D’abord, l’approche libérale se fait l’écho d’une défiance à l’égard de l’acteur public, voyant
la transparence comme un outil pour dénoncer.
Ensuite, la famille libérale-libertaire repose davantage sur la méfiance à l’égard des
gouvernements, préférant alors concevoir la transparence à des fins de surveillance.
Enfin, le mouvement participatif est basé sur la notion de bienveillance, en ambitionnant de
reconstruire la confiance citoyenne envers les institutions.
On pourrait relativiser la portée de ces catégories comme relevant de l’anecdotique au sens où l’open
data ne serait finalement qu’un mouvement unique, mais non.
Certes, la question des données ouvertes repose globalement sur l’idéal d’open government, mais les
trois courants présentés traduisent bien une scission entre les credo et les objectifs visés par leurs
partisans. Simon Chignard rappelle le débat suscité par une étude comparative de la fondation IFRAP
(famille libérale) sur l’enseignement public et privé, les apports de celle-ci étant contestables par les
tenants de la conception participative.
Le mouvement de l’open data, né outre-Atlantique, se diffuse à grande vitesse depuis que le champ
politique se l’est approprié. Mais les collectivités qui ouvrent leurs données en tant que telles ne
répondent a priori qu’au principe de transparence.
D’où l’enjeu d’encourager les dimensions d’appropriation et de participation à ce mouvement pour
que les citoyens prennent réellement conscience des apports de l’open data dans la vie démocratique
et quotidienne. Aux côtés de l’idéal d’open government, la dimension démocratique de la sphère
Internet entre également en scène avec ses fondations participatives.
Morgane Gaulon-Brain
RI 2014
1/1
www.zdnet.fr
14/12/2012
4
How the Global Open Data Movement is Transforming
Journalism
While traditional media continue their difficult decline, a cadre of the most innovative
reporters, from Afghanistan to the Amazon, are quietly transforming journalism by harnessing
the power of open data. Working in collaboration with civil society groups and governments,
they are applying new digital tools to increasingly available data troves to tell stories via
powerful interactive graphics. As a result, they are increasing transparency and empowering
communities.
In Brazil, for instance, Infoamazonia.org was one of the first efforts to create a cross-border
map of data on environmental exploitation combined with journalist and citizen coverage. The
site paints a detailed picture of the forces behind environmental degradation in the Amazon.
Obtaining non-proprietary data and news coverage are vital to the success of the project.
Recently, Infoamazonia reporters analyzing the National Institute for Space Research data
discovered a 220% rise in the rate of deforestation of the Amazon in Brazil compared to the
previous year.
In Kenya, the Data Dredger project encourages traditional media to embrace data-driven
journalism. Funded by USAID and led by Internews, the effort has created dozens of
interactive graphics exploring Kenya’s most serious health issues and offered it to media
outlets for free. Using these visualizations, Kenyan journalists have written stories on topics
such as the exodus of much-needed doctors to other countries, and how counterfeit drugs are
hindering the fight against malaria.
Many data projects arise from concerns about global corruption and impunity. For example,
the Afghan media development organization Nai has created a map of attacks against
journalists in Afghanistan; Freedom House and the International Center for Journalists are
creating a similar map for Mexico.
The success of early data projects has shifted the tone from he-said, she-said sound bites to
solid data sources, and has further inspired journalists, civil society organizations and
governments to pool their efforts, and their data. Africa Open Data features datasets from 10
countries so far and Open Data Latinoamerica launched in May with data from five countries.
Crowd-sourced and local data collection efforts are becoming more and more feasible because
of new technologies. These include open source data collection kits and tools for data
scraping, cleaning, analysis and visualization. Tools and resources offered by Ushahidi and
OpenStreetMap, among others, have paved the way for journalists to create compelling datadriven visualizations.
There is a common motivation behind all of this fantastic collaboration in data visualization.
Breaking news is now often the domain of social media, and advertising dollars are divided
among the millions of professional and non-professional content providers who want a piece
of the pie. But there is growing need and demand for in-depth content and analysis that people
can’t get anywhere else and are willing to pay for.
RI 2014
1/2
www.wired.com
31/05/2013
4
Unfortunately, data-driven reporting is not easy. Governments, corporations and NGOs have
to be persuaded to share data; journalists and techies have to be coaxed out of their comfort
zones to integrate data projects into their day-to-day work; and the audience has to demand
quality analysis.
Furthermore, data literacy remains a major barrier to widespread adoption of data journalism
both for journalists and for their audiences. In a global economy where information is
increasingly a most important currency, data needs to be conveyed in a way that helps citizens
make more informed decisions. Particularly in developed countries, media need to measure
whether flashy, interactive data visualizations are effective in conveying useful information or
are merely disorienting.
Despite all the creativity and collaboration in this emerging field, the future of data journalism
is still opaque. It remains to be seen whether this new model of reportage will be compelling
enough to attract the kinds of audiences and advertisers that media need to survive.
However, it is heartening to see the kinds of innovative projects that are emerging from the
open data movement. Data-driven journalism is opening windows onto previously dark
corners and giving people the information they need to understand and take action on the
issues they care about. If journalism is to remain relevant and viable, its practitioners would
do well to explore and expand the use of new data technologies while keeping this
fundamental goal in mind.
Jeanne Bourgault
Jeanne Bourgault is President and CEO of Internews, an international non-profit media development
organization whose mission is to empower local media worldwide to give people the news and information they
need, the ability to connect and the means to make their voices heard.
RI 2014
2/2
www.wired.com
31/05/2013
5
Why Open Data Alone Is Not Enough
If you care about transparency, these are interesting times. WikiLeaks may have faded from the
headlines, but growing numbers of people accept the notion that information collected by and about
the government should be online, searchable, and mashable.
At least 16 nations have major open data initiatives; in many more, pressure is building for them to
follow suit. The US has posted nearly 400,000 data sets at Data.gov, and organizations like the
Sunlight Foundation and MAPlight.org are finding compelling ways to use public data—like linking
political contributions to political actions. It’s the kind of thing that seems to prove Louis Brandeis’
famous comment: “Sunlight is said to be the best of disinfectants.” But transparency alone is not a
panacea, and it may even have a few nasty side effects. Take the case of the Bhoomi Project, an
ambitious effort by the southern Indian state of Karnataka to digitize some 20 million land titles,
making them more accessible. It was supposed to be a shining example of e-governance: open data
that would benefit everyone and bring new efficiencies to the world’s largest democracy. Instead, the
portal proved a boon to corporations and the wealthy, who hired lawyers and predatory land agents to
challenge titles, hunt for errors in documentation, exploit gaps in records, identify targets for bribery,
and snap up property. An initiative that was intended to level the playing field for small landholders
ended up penalizing them; bribery costs and processing time actually increased.
A level playing field doesn’t mean much if you don’t know the rules or have the right sporting
equipment. Uploading a million documents to the Internet doesn’t help people who don’t know how
to sift through them. Michael Gurstein, a community informatics expert in Vancouver, British
Columbia, has dubbed this problem the data divide. Indeed, a recent study on the use of open
government data in Great Britain points out that most of the people using the information are already
data sophisticates. The less sophisticated often don’t even know it’s there.
Data divides have consequences. Consider the recent adventures in the financial markets: The quants
on Wall Street applied their savvy to manipulate theoretically open data for personal gain. Or look at
the catastrophic effects of bundling unacceptable real estate risk into something that, to the less datasavvy, appeared to be financially sound mutual funds. The reality of these data divides is that
information is anything but transparent to the majority of people—even if it’s technically available.
India also passed a Right to Information Act in 2005, requiring governments and agencies to digitize
many records and respond quickly to any citizen’s request for information. It has the potential to
shine light on pervasive inefficiencies and rampant corruption. But so far it’s helped only the middle
class, not the massive underclass, which remains at risk of intimidation and violence. (Far from being
encouraged to use open data, many have been murdered for doing so. The Guardian calls people
silenced in this manner “Right to Information martyrs.”)
The concern that open data may simply empower the empowered is not an argument against open
data; it’s an argument against looking at open data as an end in itself. Massive data dumps and even
friendly online government portals are insufficient. Ordinary people need to know what information
is available, and they need the training to be conversant in it. And if people are to have anything
more than theoretical access to the information, it needs to be easy and cheap to use. That means
investing in the kinds of organizations doing outreach, advocacy, and education in the communities
least familiar with the benefits of data transparency. If we want truly open government, we still have
to do the hard work of addressing basic and stubborn inequalities. However freely it flows, the data
alone isn’t enough.
Jesse Lichtenstein
RI 2014
1/1
www.wired.com
28/06/2011
6
Données ouvertes (extraits)
Une donnée ouverte est une donnée numérique d’origine publique ou privée. Elle est produite
par une collectivité ou un service public (éventuellement délégué). Elle est diffusée de
manière structurée selon une méthodologie et une licence ouverte garantissant son libre accès
et sa réutilisation par tous, sans restriction technique, juridique ou financière.
L’ouverture des données (en anglais open data) représente à la fois un mouvement, une
philosophie d’accès à l’information et une pratique de publication de données librement
accessibles et exploitables.
Elle s’inscrit dans une tendance qui considère l’information publique comme un bien commun
(tel que défini par Elinor Ostrom) dont la diffusion est d’intérêt public et général.
En Europe et dans certains pays, des directives et lois imposent aux collectivités de publier
certaines données publiques sous forme numérique.
Éléments de contexte et de définition
L’ouverture des données est une philosophie visant à rendre des données numériques
accessibles à tous et à s’affranchir des restrictions sur le droit d’accès et de réutilisation. Ces
restrictions peuvent être imposées par l’usage de formats propriétaires ou de licences
restrictives, notamment les licences payantes parfois mises en place sur des données
publiques. L’ouverture vise à publier les données selon une méthodologie qui supprime les
restrictions limitant notamment leur exploitation et reproduction.
Le statut de donnée ouverte est applicable à tout type de données numériques. À titre
d’exemple, on peut citer les données sur le transport, la cartographie, les statistiques, la
géographie, la sociologie, l’environnement ou encore le juridique et par analogie et sous
certaines conditions à des œuvres protégées par le droit d’auteur, des œuvres littéraires,
artistiques et scientifiques, œuvres cinématographiques, dessins, photographies, sites internet.
La publication de données ouvertes rejoint le terme plus général d’Open knowledge par
l’Open Knowledge Foundation qui le définit comme étant une connaissance, c’est-à-dire une
œuvre, notamment musicale, cinématographique ou des données tel qu’un article scientifique,
une donnée géographique, gouvernementale ou administrative. Le terme ouvert est défini
comme la liberté d’utiliser, de réutiliser, de redistribuer librement l’œuvre originale.
Les données ouvertes s’inscrivent dans une démarche plus vaste de transparence et de
participation des citoyens que l’on retrouve dans toutes les politiques d’ouverture des droits et
qui se manifeste parfois par l’acronyme ODOSOS (de l’anglais « open data, open source et
open standards », littéralement données ouvertes, logiciel libre et format ouvert), démarche
elle-même comprise dans le mouvement plus général de l’innovation ouverte.
RI 2014
1/4
http://fr.wikipedia.org
6
Des champs d’application multiples
Des racines dans le monde universitaire
Les données ouvertes peuvent concerner les données du secteur public avec les notions de
e-gouvernement ou encore d’e-démocratie. Elles peuvent aussi être des données issues
d’instituts de recherche scientifique publics (ou privés bénéficiant de financements publics, ou
souhaitant volontairement ouvrir et partager leurs données), souvent parallèlement à une libre
diffusion des résultats de recherches ; On parle alors dans ce contexte de « libre accès » ou
« libre diffusion », dont la première définition a été donnée par la Déclaration internationale
sur le libre accès de Budapest en 2001 qui constitue un véritable appel lancé aux chercheurs et
visant à encourager leur participation au mouvement du partage gratuit de la production
scientifique.
De là, de nombreuses autres initiatives vont voir le jour ailleurs dans le monde avec par
exemple la Déclaration de Berlin de 2003 sur le libre accès à la connaissance en sciences et
sciences humaines ; suivi en mars 2005, depuis Southampton, d’une nouvelle Déclaration
appelée Berlin III visant à renforcer les mesures adoptées dans le cadre de Berlin I.
Le projet pour le séquençage du génome humain a été permis par un Open data Consortium
crée sur proposition de Jim Kent en 2003 et dont les bénéficiaires vont aussi être les pays en
voie de développement où les universités et centres de recherche n’ont pas toujours accès aux
périodiques scientifiques.
À côté du mouvement de l’open science data, les données ouvertes s’étendent au secteur
privé, avec certaines organisations à but non lucratif. À titre d’exemple, Wikipédia et les
grands wikis de la même famille placent tous leur contenu sous licence libre CC-by-sa, et le
dernier projet de cette famille Wikidatata est une base de données ouverte de bases de
données libres. Certaines entreprises s’orientent vers le « libre » en choisissant des licences
plus ou moins ouvertes pour les données et informations qu’elles génèrent, en publiant par
exemple des articles, des études, et même des œuvres artistiques.
Les enjeux dépassent donc maintenant le simple droit d’accès aux documents administratifs.
Un mouvement de libération des données publiques en effervescence
Historiquement, ce sont les États-Unis qui ont les premiers lancé un large processus de
libération des données publiques (obligation légale pour l’État et ses agences) depuis la loi
« Freedom Information Act » de 1966. Mais les facilités offertes par l’Internet lui ont donné
un regain d’intérêt de la part du secteur public depuis 2009.
Dans le monde, des mesures en faveur de davantage de transparence vis-à-vis des citoyens se
multiplient et l’Open data apparaît comme l’un des moyens de satisfaire leur volonté de
participer à la vie de la Communauté et d’exercer leur droit d’être informé en associant un
principe des externalités positives au principe de la donnée publique considérée comme bien
commun.
En Europe, en 2003, la Directive 2003/98/CE du Parlement européen et du Conseil du
17 novembre 2003 sur la réutilisation des informations du secteur public (en anglais,
directive) dite PSI (Public Sector Information) va dans le même sens.
RI 2014
2/4
http://fr.wikipedia.org
6
Les anglais ont une loi Freedom of Information Act qui date de l’an 2000.
En France, ce mouvement rencontre l’intérêt de nombreuses collectivités (un décideur sur
deux de collectivités locales interrogés par MARKESS International en 2012, déclarait
envisager l’élaboration d’une stratégie “open data” avant 2014).
La directive PSI est transposée par une ordonnance complétée d’un Décret le 30/12/2005 pris
en l’application de la loi CADA de 1978.
Il peut notamment faciliter la mise en œuvre du droit d’accès des personnes aux documents
administratifs, prévu en France par la loi du 17 juillet 1978 puis par la directive 2003/98/CE
du Conseil de l’Europe du 17 novembre 2003 sur la réutilisation des données publiques.
Les données ouvertes dans le Web des données
Les principaux problèmes de l’exploitation des données ouvertes sont de l’ordre technique car
les données en masse ne peuvent pas être traitées humainement. Le concept de Web des
données appliqué aux données ouvertes met en œuvre 3 mécanismes :
1. permettre l’existence de la donnée sur le réseau à travers une URI unique (cela inclut
les URL) ;
2. diminuer le coût de transformation de la donnée en apportant des formats standards
lisibles par les machines (comme avec RDF, RDFa ou les Microdonnée dans le
HTML5) ;
3. améliorer la qualité de la donnée pour éviter qu’un traitement de mise à disposition ne
puisse les altérer. Un entrepôt de données même avec des erreurs est préférable qu’un
entrepôt biaisé. Ainsi, des mécanismes pour la fréquence et l’automatisation des mises
à jour de la donnée par les producteurs des données est possible avec un service
SPARQL sur ces données.
Les données ouvertes ne sont contrôlables par leurs producteurs (contrôle des mises à jours) et
réellement exploitables par d’autres qu’à la condition d’utiliser ces 3 mécanismes.
Bénéfices
Publics et sociaux
En Grande-Bretagne, le croisement des données ouvertes a permis une diminution de 30 % de
la facture de consommation d’énergie dans les bâtiments publics en seulement deux mois.
Mais certaines applications de réalité augmentée dérangent : par exemple, BeenVerified.com
indique les adresses des délinquants sexuels répertoriés et Whoslobbying croise les agendas
des ministres aux rendez-vous qu’ils ont avec les milieux d’affaires.
De plus, des voix s’élèvent pour rendre transparents les échanges économiques et financiers
pour :
• éviter les problèmes systémiques qui plongent de nombreux pays dans une crise
économique permanente,
• éviter les délocalisations abusives d’entreprises qui maquillent leurs comptes pour
justifier leurs plans sociaux.
RI 2014
3/4
http://fr.wikipedia.org
6
Cependant, l’ouverture des données est souvent uniquement associée à l’idée de réduction des
coûts. Les innovations de rupture par l’émergence d’usages inattendus sur ces données vont
permettre, à titre d’illustration, la publication de données ouvertes sur les hôpitaux, permettant
d’améliorer la qualité de leurs services.
Les technologies
Évolution du Web des données de 2007 à 2010 par les plus optimistes
Les données ouvertes sont soumises à une seule contrainte, qui est d’être accessible par tous
types de machines pour permettre leur traitement. Cela implique que les données ouvertes
soient interopérables. Si les données ne respectent pas les standards du Web pour permettre
leur interopérabilité, on parlera de données bridées car leur réutilisation est moindre, voire
quasiment nulle.
Ce critère d’interopérabilité n’a jamais été réellement respecté dans l’industrie, jusqu’en 2008
où le standard SPARQL est devenu une recommandation du W3C. Ce langage de requête
permet aux développeurs de tester leurs requêtes directement depuis leurs navigateurs Web
sur les données ouvertes en ligne puis de développer leur propre programme pour analyser ces
données. On peut ainsi consommer les données à distance sans avoir à les transformer ou à les
déplacer. Ainsi, les gouvernements au Royaume-Uni et aux États-Unis ont commencé à
basculer leurs données dans le Web des données ouvert (en anglais, Linked Open Data ou
LOD) en respectant les standards du W3C et en offrant un point d’accès SPARQL pour les
développeurs.
Exemple de données réellement ouvertes : pour trouver sur une carte les écoles les plus
proches de son domicile avec les données de Data.gov.uk (du gouvernement au
Royaume-Uni) qui offre toutes les données relatives aux écoles sur son territoire.
Une conséquence de ce choix politique, d’offrir un vrai standard pour les données publiques
comme le Web des données, est décrit dans le livre « Linking Government Data ». Dans ce
livre est décrit comment le Web des données est passé de quelques 40 millions de triplets
RDF au sein de quatre entrepôts de données en 2007 à 203 entrepôts avec plus de 25 milliards
de triplets avec 395 millions de liens à la fin 2010. Les plus optimistes parlent de croissance
exponentielle des données (comme dans l’illustration : Évolution du Web des données) et
annoncent un Web 3.0 et même un possible point de singularité dans l’avenir. Quoi qu’il en
soit, ce choix politique a permis d’ouvrir de nouvelles pistes de recherche scientifique,
économique et sociale.
RI 2014
4/4
http://fr.wikipedia.org
7
Charte du G8 pour l’Open Data : la France dévoile son
plan d’action
Récemment pointée du doigt pour être à la traîne au niveau international en matière
d’Open Data, la France a dévoilé hier son « plan d’action » pour l’application de la
Charte du G8 relative à l’ouverture des données publiques. En clair, le Premier ministre
a dévoilé comment l’exécutif allait s’y prendre pour atteindre les engagements pris en
juin dernier par le chef de l’État. Ceci passe notamment par l’identification de jeux de
données publiques à fort potentiel. Explications.
En juin dernier, les dirigeants des huit plus grandes puissances mondiales ont adopté une
« Charte pour l’ouverture des données publiques ». Au travers de ce texte, les membres du G8
ont notamment reconnu que « l’accès libre aux données publiques et leur réutilisation
gratuite » devait être la règle, hors cas particuliers. Dans l’optique de mettre en place d’ici
fin 2015 les grands principes et engagements portés par cette charte, les États-Unis, le Japon,
l’Allemagne, la France, le Royaume-Uni, l’Italie, le Canada et la Russie promettaient de
présenter « d’ici la fin de l’année » des plans d’action nationaux.
C’est désormais chose faite pour Paris, Matignon ayant dévoilé hier le « plan d’action » de la
France pour l’application de la Charte du G8 relative à l’ouverture des données publiques.
Ce dernier se décline sous la forme de différents points.
Identification des jeux de données ayant un « fort potentiel »
Si certains jeux de données publiques considérés comme ayant un « fort potentiel » sont déjà
mis en Open Data (résultats des élections, budget, certaines cartes de l’IGN ou statistiques de
l’INSEE), il reste encore de nombreuses bases de données à libérer. Matignon identifie ainsi
celles qui devraient l’être prioritairement. C’est par exemple le cas en matière de :
Criminalité et justice. Si le gouvernement met déjà à disposition sur data.gouv.fr des
données relatives aux faits constatés par les forces de Police et de Gendarmerie, il promet
d’engager des travaux « pour publier d’ici 2015 des données plus précises » s’agissant de leur
localisation. De son côté, le ministère de la Justice « travaillera à la mise à disposition d’ici
2015 de données statistiques agrégées sur des condamnations inscrites au Casier judiciaire
dans un format réutilisable ».
Finances et marchés publics. Le ministère de l’Économie et des finances va se pencher sur
la publication, d’ici 2015, de « la totalité des données relatives aux attributaires des marchés
publics engagés par l’État ». Bercy devra de plus travailler sur la façon d’industrialiser, de
généraliser et d’accélérer la mise à disposition des données relatives aux lois de finances
initiales et rectificatives, mais aussi des données contenues dans les annexes (« jaunes »)
budgétaires. S’agissant du détail des dépenses publiques, Matignon affirme prudemment que
le ministère du Budget et celui de l’Économie et des finances « travailleront à la mise à
disposition d’ici 2015 de données sur le détail des dépenses engagées par l’État, au-delà d’un
montant à déterminer ».
Développement international. Le Premier ministre indique que la France « s’efforcera de
publier, dès 2014 pour les pays pauvres prioritaires, ses données d’aide au développement
dans le format de l’Initiative Internationale pour la Transparence de l’Aide (IITA) ».
RI 2014
1/3
www.pcinpact.com
08/11/2013
7
Transports. Le ministère de l’Intérieur va plancher sur la mise à disposition des données
concernant les résultats des auto-écoles, sans qu’aucune date ne soit avancée.
Éducation. Matignon promet que le ministère de l’Éducation nationale et l’ONISEP
« travailleront à la mise en ligne de données sur l’éducation », ces dernières devant
« permettre une meilleure information des parents sur l’offre scolaire, le nombre
d’enseignants ou le nombre d’élèves par classe dans les établissements, ainsi que les adresses
des établissements scolaires ».
Environnement. Le chef du gouvernement indique que l’Office national de l’eau et des
milieux aquatiques (ONEMA) « travaillera à l’ouverture des données du système
d’information des services publics sur l’eau et l’assainissement », sans qu’il n’y ait -une
nouvelle fois- de précision de date.
Conditions météorologiques. « Météo France engagera un chantier de prospective sur les
évolutions possibles de son modèle économique » annonce le plan d’action du gouvernement.
L’établissement public poursuivra en outre « ses actions d’amélioration, d’ici à 2015, de la
convivialité d’accès et de l’interopérabilité des données historiques, des observations issues
du réseau météorologique et des données de prévision issues des modèles numériques ».
Activité gouvernementale. Matignon affirme que la Service d’information du gouvernement
(SIG) « étudie les moyens de mettre à disposition les données publiques contenues dans la
base de données des sites archivés des précédents gouvernements ».
On le comprend rapidement, les promesses ne sont pas très engageantes, l’exécutif se bornant
à affirmer la plupart du temps qu'il va « travailler » à l’ouverture de certaines données.
Néanmoins, le cap et les objectifs sont désormais connus et fixés.
Des débats thématiques associant la société civile
En outre, six débats thématiques vont être organisés sous la houlette de la mission Etalab,
l’objectif étant d’identifier de nouveaux jeux de données à libérer. Ces débats vont concerner
les domaines de la santé, du logement, de l’enseignement supérieur et de la recherche, des
transports, des risques environnementaux, ainsi que celui des dépenses publiques. Il est
précisé que chacun d’entre eux donnera lieu à la remise d’un rapport, lequel devra contenir
« des recommandations en termes d’ouverture cohérente des données, en précisant les
bénéfices attendus de cette ouverture ». Ces rapports seront adressés aux ministères
concernés.
L’exécutif peu bavard s’agissant du principe de gratuité
Après avoir réaffirmé le principe de gratuité des données publiques, Matignon rappelle au
travers de son plan d’action que ce principe a vocation à se généraliser. Deux jours après la
remise officielle du rapport Trojette, lequel appelait justement à supprimer les trop
nombreuses redevances réclamées par l’administration pour la réutilisation de certains jeux
de données publiques, le gouvernement ne s’étend cependant pas davantage sur la question.
Rappelons quoi qu’il en soit que le Premier ministre a promis des arbitrages pour le mois
de décembre, laissant entrevoir de « premières décisions de suppressions de redevances
pour 2014 ».
RI 2014
2/3
www.pcinpact.com
08/11/2013
7
S’agissant de l’ouverture des formats dans lesquels sont publiées les données publiques,
l’exécutif tient à rappeler « son attachement à l’utilisation de formats ouverts », affirmant
qu’il « poursuivra la mise à disposition de données lisibles en bloc par les machines dans la
plus large mesure possible ». Jean-Marc Ayrault insiste en outre sur le fait que la France
encourage l’usage de formats libres et ouverts pour les données publiques, mais aussi pour les
applications de ces données. « Le gouvernement privilégiera, dans la mesure du possible, le
développement de sites en formats ouverts pour ses services publics en ligne plutôt que
d’applications mobiles liées aux plateformes propriétaires » assure à cet égard le plan
d’action de l’exécutif.
Deuxième version de la plateforme « data.gouv.fr » sera en ligne d’ici la fin de l'année
La refonte du site d’Open Data « data.gouv.fr » avait déjà été annoncée en février lors du
séminaire gouvernemental dédié au numérique. Le plan d’action de l’exécutif en remet une
couche, maintenant que la nouvelle plateforme « sera ouverte au public d’ici la fin de l’année
2013 ». Matignon affirme par ailleurs que « la refonte de la plateforme, basée sur des outils
Open Source, permettra de tenir compte des retours d’usage, des suggestions des utilisateurs,
des exigences liées à l’augmentation des ressources mises en ligne, de la multiplication des
portails d’Open Data et des nouveaux publics intéressés par l’ouverture des données
publiques ».
« Regards Citoyens » veut rester vigilant
La diffusion de ce plan d’action a été saluée par l’association Regards Citoyens, qui s’est
réjouie par voie de communiqué de « l’annonce de la libération de nouvelles données », ainsi
que de « l’amélioration de certaines autres » données. L’effort est cependant encore
incomplet aux yeux de l’organisation, qui regrette que l’exécutif ne fasse pas référence à
certains jeux de données à fort potentiel et actuellement soumis à redevance (données
relatives aux lois et règlements, registres des entreprises, etc.) -contrairement aux
engagements pris par François Hollande-. « Regards Citoyens espère donc que ce document
n’est qu’un document d’étape, et attend des décisions promises pour le 12 décembre une
politique gouvernementale plus ambitieuse encore, afin de permettre la pleine mise en œuvre
des engagements présidentiels ».
Rappelons enfin que les membres du G8 ont convenu de faire un point d’étape lors du
prochain sommet, lequel se tiendra en juin 2014 à Sochi (Russie).
Xavier Berne
RI 2014
3/3
www.pcinpact.com
08/11/2013
8
La lente marche des données publiques vers l’Open Data
Plus de transparence et de démocratie, telle est la promesse de l’Open Data. Cette expression
en vogue désigne la mise à disposition des données publiques : réserve parlementaire,
population carcérale, effectifs des professeurs, aides financières aux PME, délits, pollution
atmosphérique, tarifs agricoles…
Aujourd’hui en France, pas moins de 350 000 jeux de données, représentant 2 800 fichiers
différents, sont en ligne sur Data.gouv.fr, la plate-forme du gouvernement créée en décembre
2011. Pour accélérer un mouvement déjà en marche aux États-Unis ou au Royaume-Uni, le
président Nicolas Sarkozy avait créé Etalab, mission logée à Matignon et chargée
d’encourager les administrations, parfois frileuses à l’idée de dévoiler ce qu’elles considèrent
comme étant leurs secrets d’alcôve. Les premiers résultats montrent le bout de leur nez.
Les collectivités sont ainsi entrées dans la danse mercredi 9 octobre, avec le lancement de
l’association Open Data France. Sont dans la boucle des métropoles comme Toulouse,
Nantes, Rennes, Bordeaux, Montpellier, Lyon ou encore Nice et Strasbourg.
Loin derrière les États-Unis
Mais la France est encore loin derrière les États-Unis, où le président Barack Obama a lancé,
quasiment le jour de son arrivée à la Maison Blanche en janvier 2009, un vaste programme
d’ouverture des données publiques. Des coûts de santé aux plaintes pour fraudes à la carte
bancaire en passant par la météo, l’administration américaine a vu large… Désireuse de
donner l’exemple sur les usages qui pouvaient être faits de ces informations, elle a développé
des sites à destination des citoyens, montrant précisément, sous forme de graphiques,
l’utilisation de l’argent public par le gouvernement.
Si l’administration Obama s’est montrée aussi volontariste, c’est aussi dans l’espoir d’inciter
les entreprises à s’emparer de ces données pour créer de nouveaux services. Générer de la
croissance et de l’emploi, voilà l’autre promesse de l’Open Data.
Dans l’Hexagone, le gouvernement partage la même ambition. « Grâce aux concours
DataConnexions, où nous sélectionnons des projets innovants, nous connaissons déjà une
centaine de start-up qui utilisent les données publiques », affirme le président d’Etalab,
Henri Verdier.
À l’image de Meilleursagents.com, un site immobilier qui évalue immeuble par immeuble le
prix des appartements à partir des données cadastrales. Ou encore de Home’n’go, encore dans
l’immobilier, une jeune start-up qui utilise les données de l’Insee pour que les acquéreurs
potentiels puissent connaître en détail le quartier (la proximité des établissements scolaires et
leur taux de réussite, les différentes classes sociales présentes, la proportion de propriétaires,
etc.).
Une trentaine de grands fichiers sont payants
Mais, en France, la route est encore longue. Devant les réticences toujours vives, le premier
ministre, Jean-Marc Ayrault, a envoyé fin septembre à tous les ministères une circulaire les
incitant à se montrer plus coopératifs. « Les citoyens sont en droit de demander des comptes à
leur administration publique », martèle Henri Verdier, président d’Etalab.
RI 2014
1/2
www.lemonde.fr
13/10/2013
8
« Il y a une grande résistance de l’administration. Le fichier complet de la carte scolaire, par
exemple, n’est pas disponible. C’est un scandale. Une véritable libération des données
pourrait créer un développement économique fort », se plaint François Bancilhon, qui a lancé
il y a deux ans Data-Publica.com, un site qui vend des services sur mesure basés sur
l’extraction de données publiques.
Les craintes sont nombreuses, notamment dans le secteur de la santé, où la question de la vie
privée se pose clairement. Autre frein, le caractère payant des données. En théorie, leur accès
est gratuit, mais une trentaine de grands fichiers, comme les immatriculations automobiles, le
cadastre, les informations déposées par les entreprises au tribunal de commerce, sont payants.
De grands opérateurs d’État comme l’Institut national de l’information géographique (IGN),
Météo France ou le Service hydrographique national, spécialisé dans les cartes marines,
réclament eux aussi des redevances.
Mais la mise à disposition totale de ces informations ne ferait-elle pas d’abord le jeu des
géants américains, qui bâtissent leur fortune grâce aux données disséminées sur le Web ?
Google avait lancé son service de cartographie Google Maps sur la base de vieilles cartes
IGN. « On n’est pas obligé de nourrir le fauve, estime Henri Verdier. Les opérateurs d’État
peuvent développer des modèles économiques et des stratégies industrielles autour de leurs
données, comme le font Facebook ou Google ».
Cette dîme réclamée au citoyen par des opérateurs privés ou des administrations publiques
paraît injustifiée aux yeux de beaucoup. Comme le résume François Bancilhon, « il n’y a pas
de raison que l’on paie deux fois nos impôts ».
Sandrine Cassini
RI 2014
2/2
www.lemonde.fr
13/10/2013
9
L’Open Data : les risques potentiels de l’ouverture des
données publiques
Quelles sont les incidences et les risques liés à l’ouverture et la mise à disposition de
données publiques à des tiers ?
Les activités de l’État sont à l’origine de la production d’une quantité considérable de données
qualifiées de publiques lorsqu’elles sont produites dans le cadre de l’activité du service
public. L’ouverture des données publiques, appelée plus communément en anglais « Open
data », consiste à mettre à la disposition de tous, sous une forme exploitable, le plus grand
volume possible de données.
Les services de l’État et des collectivités locales ont dû apprendre à favoriser la réutilisation
de leurs données publiques. En effet, la loi du 17 juillet 1978 qui prévoit la liberté d’accès aux
documents administratifs régulé par la Commission d’accès aux documents administratifs
(CADA) a été modifiée en 2005 (transposition de la directive européenne du 17 novembre
2003) afin de prévoir un droit de réutilisation de ces données publiques. La loi précise que,
pour se faire, les administrations sont libres de fixer des redevances qui doivent être décrites
dans une licence fournie par l’établissement public aux réutilisateurs. En général, la
réutilisation des données pour un usage non commercial sera libre de toute redevance.
Le système mis en place permet aux citoyens, aux acteurs économiques, aux chercheurs ou à
la presse de se saisir des données publiques. Dans une société où le web mobile se développe
à grande vitesse et où les technologies permettent un traitement rapide d’un grand nombre
d’informations, la réutilisation des données publiques est riche de promesses (sont déjà mis en
place un site sur l’activité de chaque député, une cartographie interactive des lieux accessibles
aux personnes handicapées ou encore la disponibilité en temps réel des vélos en libre-service
à Rennes ou à Bordeaux -villes pionnières en la matière-). Le mouvement semble débuter en
France.
La ville de Paris a lancé sa plateforme de données publiques, Opendata.paris.fr, le 27 janvier
dernier et l’État, à l’instar d’autres pays comme les États-Unis ou le Royaume Uni, va se doter
prochainement de son portail gouvernemental rassemblant les données publiques.
Le sujet semble donc faire consensus en ce qu’il permettrait la transparence de l’action
administrative et le développement du marché de l’information. Il convient toutefois d’en
mesurer les conséquences : « l’Open data » n’est pas sans comporter certains risques.
Les risques liés à la transparence
L’Open data peut être à l’origine d’un changement des rapports de force entre les citoyens et
l’État quant aux décisions à prendre, et notamment quant à l’évaluation et la légitimité des
politiques de service public et de leur efficacité en fonction des données chiffrées disponibles.
Face aux données, le citoyen sera tenté de discuter du bien fondé de chaque décision. Si le
citoyen a bien évidemment un droit de regard sur la dépense publique, il pourra être contesté
le fait qu’il dispose des compétences nécessaires pour évaluer tel ou tel projet. À titre
d’exemple, serait alors discuté la nécessité d’ouvrir ici ou là une école, une maison pour
jeunes, ou un bureau de poste en fonction des données démographiques fournies. Le
RI 2014
1/3
www.journaldunet.com
01/03/2011
9
gouvernement pourrait donc être confronté à une perte de pouvoir sur les données et sur la
prise de décision en général.
Par ailleurs, les réutilisateurs peuvent aussi détourner les informations fournies afin de
produire des sites intrusifs ou discrimimants et source d’inquiétudes pour les citoyens.
L’exemple des États-Unis, où les réutilisateurs se sont rués sur les données de criminalité pour
produire des cartographies par ville ou recensant l’origine ethnique des habitants d’un
quartier, est souvent décrié.
Enfin, l’ouverture de ces données pourrait avoir pour conséquence sur le long terme la
privatisation des services publics. En effet, l’accès à ces données et leur réutilisation par des
entreprises privées pourraient laisser penser que l’État n’a plus le monopole des services
publics, le privé pouvant alors assumer certaines fonctions, et notamment la production de
données publiques pertinentes agencées et remaniées en leur faveur. L’exigence de clarté et
de transparence ne pèse dès lors que sur le secteur public. Pourtant, la communication de leurs
données par les entreprises privées pourrait aussi s’avérer aussi fort utile : l’exemple est
souvent donné des opérateurs de télécommunications qui disposent de données anonymes
précises sur la fréquentation des quartiers de la ville, sur le trafic sur les grands axes routiers,
ainsi que des fournisseurs d’énergie ou des entreprises de collecte des déchets. Dès lors,
n’existe-t-il pas un risque de déséquilibre entre l’administration dont le travail est totalement
dévoilé et les entreprises privés qui continueront à garder la maîtrise de leurs données ?
Les risques liés à la vie privée
Certaines données ne sont pas concernées par ce mouvement d’ouverture : les informations
détenues par des organismes culturels ou d’enseignements et de recherche, les données sur
lesquelles des tiers détiennent des droits de propriété intellectuelle, et naturellement les
documents contenant des données personnelles.
Toutefois, il est parfois délicat de faire la part entre données publiques et données
personnelles. Le débat suscité par l’adoption de la LOPPSI en témoigne. En effet, son
article 30ter introduit au Sénat a particulièrement suscité de vives réactions puisque cet article
menaçait fortement l’Open data en France en proposant de soumettre les réutilisateurs de
données publiques sous licence à un contrôle de comportement (de moralité). Plusieurs
amendements ont été déposés par des députés de droite comme de gauche en vue de rectifier
le tir. Un amendement de la commission des lois a été adopté afin de restreindre ces contrôles
de moralité à la seule réutilisation des données d’immatriculation des véhicules.
En effet, l’Open data ne subissait ici que le dommage collatéral de la légalisation d’une
pratique : l’utilisation et la vente par l’État des données personnelles relatives aux cartes
grises à des fins de marketing. Une confusion entre données personnelles et publiques est
créée. Il existe donc un risque certain pour que l’Open data concerne parfois des données
pouvant être qualifiées de personnelles puisque même pour le législateur la confusion est de
mise.
Les risques liés à la marchandisation des données
Dans le cadre de sa mission de mise en valeur du patrimoine numérique public, l’Agence du
patrimoine immatériel de l’État (APIE) a proposé deux modèles de licences de réutilisation
des données publiques basées sur le paiement de redevances, sauf dans l’hypothèse d’une
RI 2014
2/3
www.journaldunet.com
01/03/2011
9
réutilisation non commerciale. Cette orientation consistant à marchander les données
publiques, alors qu’elles sont le fruit de l’exercice du service public financé par tous, n’est pas
exempt de risques. En effet, il ne faudrait pas qu’un tel système empêche les petits acteurs
d’obtenir une licence car trop chère.
Ceci créerait un déséquilibre entre les grandes entreprises pouvant librement s’offrir des
données publiques exploitables et les petites ne pouvant y accéder. La question de la
tarification est donc centrale, et la réutilisation des données par un maximum d’acteurs en
dépendra. Le risque étant que l’exploitation de ces données ne soit réservée qu’à des lobbies
qui, grâce à leur puissance et leurs moyens financiers, en fassent un usage à leur avantage au
détriment des instituts publics de production de données géographiques ou statistiques qui,
faute de budget, devront diminuer leurs activités. Afin d’éviter ce risque, certains préconisent
l’utilisation de modèles de licences libres mis en place à l’étranger.
Les risques liés à la fiabilité et à la complexité des données
Un autre risque est qu’en ouvrant au public ces données, soit révélé leur manque de fiabilité.
Ce qui pourrait discréditer l’action publique et remettre en cause le travail effectué par les
administrations.
Par ailleurs, les données pourraient aussi être difficiles à comprendre car trop complexes, si
bien que les dépenses mises en œuvre par l’État pour assurer leur mise à disposition du public
ne serviraient pas au citoyen qui ne peut les interpréter mais uniquement à des spécialistes,
souvent financés par des entreprises puissantes. Ici encore, un déséquilibre dans l’accès aux
données pourrait naître. À terme, on pourrait redouter que ces entreprises falsifient les
données avant de les communiquer au public afin de les tourner à leur avantage...
Les risques liés à une utilisation massive et abusive des données
Une des plus grandes craintes soulevée par les observateurs de l’Open data est la peur de voir
des entreprises étrangères profiter à moindre coût de ces données pour en faire un usage
commercial, parfois abusif en ce qu’il serait à la limite du pillage. Les données publiques
françaises seraient alors exploitées par des groupes étrangers sans que cela ne rapporte de
bénéfices à l’État, puisque le propre de ces entreprises est de ne pas payer d’impôts en France.
L’exemple constamment cité est celui de Google, qui est souvent accusé de « pillage » en
raison de ces litiges l’opposant aux titulaires de marques ou aux éditeurs. Ce risque
d’exploitation massive voire intrusive des données, souvent mis en avant par les partisans
d’un discours protectionniste, ne doit pas être exclu.
L’affaire Wikileaks a montré que l’ouverture des données publiques est un sujet plus
qu’épineux. La France a toujours été réticente à diffuser volontairement ses données
publiques, pourtant le mouvement semble en marche. Il faut donc désormais compter sur la
bienveillance de tous les acteurs (réutilisateurs et pouvoirs publics) afin de contenir, ou du
moins limiter, les risques évoqués afin de faire de l’Open data un mouvement juste et
équilibré.
Antoine Chéron
Avocat Associé, Cabinet ACBM Avocats
RI 2014
3/3
www.journaldunet.com
01/03/2011
10
Sur Data.gouv.fr, l’accès aux données publiques devient
collaboratif
Développé par la mission intergouvernementale Etalab, la nouvelle version du portail d'accès
aux données publiques s'ouvre aux contributions des internautes, sur le modèle de Wikipedia.
La France fait un pas de plus vers la transparence à l’anglo-saxonne. Le portail d’accès aux données
publiques Data.gouv.fr a fait peau neuve, pour se rapprocher de ses grands frères, l’américain
Data.gov et britannique Data.gov.uk. « Cette nouvelle mouture était vraiment attendue par la
communauté open data », explique Benjamin Gans, de Data Publica. Cette société spécialisée dans
le développement de « jeux de données » a été sollicitée par le gouvernement, lors d’« ateliers
codesign », pour la mise en œuvre de la nouvelle version. « Jusqu’à présent, Data.gouv.fr
ressemblait plus à un dépôt de données qu’à une vraie plateforme interactive intégrée dans un
écosystème », poursuit-il.
Plus de 200 contributeurs
L’« open data », c’est l’idée selon laquelle les données produites ou détenues par les institutions
publiques, notamment gouvernementales, devraient être publiques, gratuites et facilement
accessibles à tous, sans restriction de copyright ou de brevet. Le concept séduit le gouvernement.
Le jour du lancement de la nouvelle version de Data.gouv.fr, le premier ministre Jean-Marc Ayrault
a annoncé dans la foulée la suppression d’une dizaine de redevances sur des données publiques,
dont celles en vigueur sur legifrance.gouv.fr, la CADA, ou encore sur certaines données de
l’Éducation nationale.
La principale avancée de Data.gouv.fr réside dans son ouverture aux contributions extérieures.
Initialement alimentée uniquement par l’administration, la plateforme de données publiques accepte
désormais les contributions d’internautes, de chercheurs et d’entreprises. Sur le même modèle que
wiki, chacun peut contribuer librement en ajoutant des données d’intérêt public, mais aussi enrichir
ou compléter des jeux de données préexistants pour les rendre facilement exploitables.
Parmi les données intéressantes désormais disponibles sur le site, on trouve les comptes des partis et
groupements politiques au titre de l’exercice 2011, les subventions allouées au titre de la réserve
parlementaire pour 2011 et 2012, ou encore la liste des marchés publics conclus entre 2008 et 2012.
Ces données brutes ont ensuite vocation à être traitées, triées et mises en forme par des journalistes,
associations ou autres, pour faire parler les chiffres. Il devient par exemple possible de créer la carte
des communes où vivent les plus riches contribuables à partir de données qui recensent les
communes en fonction du nombre de contribuables assujettis à l’ISF.
La nouvelle plateforme a été mise en œuvre par Etalab, une mission supervisée par le secrétariat
général pour la modernisation de l’action publique, cher à Matignon. Elle rassemble déjà 10 fois
plus de producteurs de données que la version précédente. En tout, elles sont plus de
200 organisations à contribuer, que ce soient des centres de recherche, des collectivités locales, des
représentants du monde associatif ou de la société civile. Mais il y a surtout quatre fois plus de
données. Les Ordonner constituait donc un enjeu fondamental. Ainsi, les 350 000 fichiers que
comptait l’ancien site ont été rassemblés en 2 900 séries cohérentes. Un nombre multiplié par dix
depuis la publication de la nouvelle version. Pourtant, la plateforme reste perfectible. « Il manque
encore des données fraîches, notamment sur la délinquance, note Benjamin Gans. Il manque aussi
plusieurs données dans des domaines considérées comme sensibles, comme des données
parlementaires, ou celles relatives à la santé. Il reste donc un travail de transparence à poursuivre ».
Édouard de Mareschal
RI 2014
1/1
www.lefigaro.fr
31/12/2013
11
Open Data : pour le bien des entreprises et des finances
publiques
Les évolutions du web et de ses usages poussent nos collectivités vers la logique de la
gouvernance ouverte ou OpenGov. S’il s’agit encore trop largement d’un miroir aux
alouettes, l’ouverture et la mise à disposition des données publiques -l’Open Data- est
une réelle opportunité pour le développement de nos entreprises et par conséquent de
nos territoires.
Depuis maintenant plus de 20 ans, notre société connaît des changements majeurs liés
directement aux évolutions technologiques. Chacune d’entre elles pourrait être qualifiée de
révolution tant elle change, au-delà des métiers, les modes de vie des populations.
Les piliers de la révolution technologique des dernières années résident dans deux éléments
centraux : l’arrivée du World Wide Web et la croissance de la capacité à collecter, stocker et
analyser des quantités sans cesse croissantes de données.
Côté données, on célébrait il n’y a pas si longtemps de cela l’arrivée de la disquette
5,25 pouces qui faisait alors figure de géant du stockage en comparaison de sa grande sœur de
8 pouces. À peine quelques années plus tard, on évoque sérieusement la mise en place
d’espaces de stockage de l’ordre du brontooctet, soit à peu de chose près l’équivalent d’un
million de milliard de milliard de disquettes.
Côté Web, depuis les années 90, le nombre d’appareils connectés augmente de 15 % par an et
dépassera les 2 milliards d’unités avant 2 ans. D’ailleurs, il y a déjà plus d’objets connectés
que d’internautes.
De l’ordinateur au téléphone en passant par les nouveaux gadgets, lunettes, montres ou
appareils ménagers, chaque connexion est créatrice de données. Données pour lesquelles, sous
l’impulsion d’entreprises comme Google, Amazon ou encore Facebook, le stockage
systématique est devenu la norme.
Cette obsession de la donnée a été rendue possible par l’évolution du Web. À l'origine pensé
comme un outil de consultation et de création d’information, il s’est métamorphosé dans les
années 2000. C’est l’arrivée du Web 2.0 : un espace de liberté, d’échanges et de collaborations dans lequel tout passe par la donnée. En nous permettant, voire en nous encourageant à
partager notre vie et à commenter celle des autres, les grands groupes se sont offerts de
l’information. Aujourd’hui, c’est ainsi plus de 250 millions de photos qui sont quotidiennement postées sur Facebook... et qui contribue ainsi à l’enrichissement de la mémoire numérique de la firme californienne.
La prochaine mue du web sera rendue possible par les nouvelles technologies : nuage
informatique (cloud computing) et bases de données géantes. On parle alors du web 3.0,
défini par Tim Berners-Lee comme celui de l’interaction entre toutes les données. Pour cela,
vive le Cloud, vive le Big Data et vive l’Open Data.
Mais quid du rôle de nos institutions dans cette nouvelle révolution ? Quid de leur
engagement vis-à-vis de l’Open Data ? La question mérite d’être posée car nos administrations sont des mines d’or de données -souvent inexploitées-.
RI 2014
1/3
http://lecercle.lesechos.fr
21/11/2013
11
Sous couvert du concept d’OpenGov, l’Open Data permettrait de mettre en place la
démocratie de demain : transparente, coopérative et participative. En ces périodes de défiance
vis-à-vis de nos politiques, il est surtout un argument de poids pour les élus dans leur quête
d’une nouvelle image. Dans les faits, il s’agit peut-être bien d’un miroir aux alouettes. Pour le
moment en tout cas.
Reprenons les trois arguments en faveur de cet OpenGov :
Le premier : la transparence. La mise à disposition par une collectivité de certaines de ses
données, celles qu’elle a choisies, n’est nullement un signe de transparence. Au quotidien,
dans la plupart des collectivités, les élus d’opposition souffrent pour obtenir les informations
dont ils ont besoin. Croit-on vraiment que l’Open Data consistera à rendre toutes les
informations disponibles ? Peut-être, mais il est également très vraisemblable que le travail
sérieux des oppositions et celui non partisan des journalistes continueront d’être au cœur de
cette quête de transparence de la vie politique.
Le second : la participation. Il faut rappeler ici que le vrai pouvoir des citoyens réside dans les
urnes : c’est le droit de vote. Un simple regard sur les taux de participation aux différentes
élections des dernières années -présidentielles exclues- nous laisse voir à quel point les
Français sont impliqués dans la vie citoyenne. Que la mise à disposition de plateformes de
données sera un facteur de participation des populations, voilà peut-être une simple utopie à
laquelle ne souscriraient que les plus techno-naïfs. Les citoyens impliqués le seront peut-être
encore d’avantage. Mais celui qui n’a pas l’envie aujourd’hui de se déplacer pour mettre un
bulletin dans une urne, ne sera probablement pas plus séduit à l’idée de passer des heures à
analyser des données ouvertes sur le Web.
Et enfin le dernier : la coopération. La mise en place de partenariats, les échanges avec les
entreprises, voilà certainement de véritables opportunités offertes par l’ouverture de la donnée
publique. Cette coopération justifie, à elle seule, la mise en place de l’Open Data en France.
En effet, au-delà des valeurs véhiculées par le concept, il y a une véritable réalité économique.
Cette mise à disposition des données offre des perspectives concrètes à notre pays et peut
créer de véritables ponts entre le « privé » et le « public ». En ce sens, le Premier Ministre a
raison d’inviter les membres du gouvernement à partager leurs données.
Mais face à la culture « touche à tout » de nos élus -mise en exergue par les combats pour la
clause générale de compétence-, la tâche n’est pas mince. Il faut que les collectivités arrivent
à « laisser faire », à simplement ouvrir les données. Elles ne doivent ni subventionner les
projets, ni chercher à exploiter elles-mêmes ces données. En tout cas pas dans une période où
l’on sollicite autant les français pour équilibrer les comptes publics.
Les défenseurs d’un État omniprésent risquent de s’insurger. Il s’agit quand même de mettre à
disposition d’entreprises, afin qu’elles puissent s’enrichir, des données qui appartiennent à
ceux qui les financent : les contribuables. N’est-ce pas un peu choquant ?
Trois éléments de réponses :
1. Les données en question doivent être, quoi qu’il arrive et ce, souvent pour des raisons
légales, récupérées et stockées par les collectivités. Il ne s’agit donc pas tant de les
récolter pour le compte des entreprises, mais plutôt de les mettre à disposition de ces
dernières. N’oublions également pas que le devoir fiscal des entreprises leur ouvre des
RI 2014
2/3
http://lecercle.lesechos.fr
21/11/2013
11
droits : les contribuables, personnes physiques et morales confondues, sont collectivement propriétaires de ces données.
2. Si ce ne sont pas les entreprises qui se chargent de les valoriser mais bien les
collectivités, les contribuables devront payer cette valorisation.
3. Si elles sont utilisées par les entreprises, ce seront ces dernières qui supporteront le
risque financier et, en cas de succès, créeront de la valeur et de l’emploi.
Le rôle de nos collectivités, particulièrement en période de crise, n’est pas de devenir éditeur
de logiciel, ni de faire tourner la commande publique à tout va. Elles doivent plutôt
accompagner le tissu économique territorial en permettant notamment aux entreprises
intéressées et capables de les valoriser d’avoir accès gratuitement aux données publiques.
Charge aux entreprises de concevoir les services utiles aux consommateurs. Charge à elles de
prendre les risques économiques liés aux projets qu’elles lanceront. En cas de succès, c’est
notre société qui en bénéficiera.
Parallèlement, les données publiques ont un rôle majeur à jouer dans la gestion de nos
administrations, par exemple en matière d’anticipation ou de rationalisation. Il est urgent de
les mobiliser au service du pilotage stratégique et de la réflexion prospective et dans le même
temps de renoncer au travers électoraliste du « quel service vais-je annoncer en fanfare pour
faire parler de moi auprès des électeurs ? ».
Bertrand Paul
RI 2014
3/3
http://lecercle.lesechos.fr
21/11/2013
12
Open data : ouvrir ses données au public, ça peut rapporter
gros
Les administrations ne sont plus les seules à rendre publiques les informations qu’elles
détiennent. Désormais, les entreprises y voient aussi le moyen de développer des services
innovants.
Fini la mauvaise surprise des trains de banlieue bondés. Depuis quelques jours, SNCF met à
disposition de ses usagers une application mobile les renseignant sur l’affluence des rames de train.
Grâce à elle, par exemple, les salariés travaillant dans le quartier d’affaires de La Défense sauront
quel est le wagon le moins bondé.
Tranquilien -c’est le nom de cette appli- contribuera également à la bonne gestion de l’affluence par
les voyageurs, qui pourront indiquer depuis leur smartphone le taux d’occupation de leur voiture.
Un tel système prédictif n’aurait jamais vu le jour si SNCF n’avait pas partagé certaines de ses
données. En effet, Tranquilien est le premier cas français concret de ce que l’on appelle l’open data
(l’ouverture des données) proposé par une entreprise. En clair, elle a rendu accessible une partie de
ses informations dans un format réutilisable par d’autres, afin d’en faire profiter le plus grand
nombre.
Aujourd’hui, cette démarche concerne avant tout les administrations, qui sont de plus en plus
contraintes par la loi à la transparence. Les principales villes de France et les ministères ont déjà
commencé à publier des données sur les transports, la topographie, les services publics, les marchés
signés ou encore les budgets. En plus de sa vertu démocratique, la libération des informations
contribue à l’émergence de nouvelles activités imaginées par ceux qui les exploitent, que ce soient
des développeurs, des start up ou des chercheurs.
Graines de services. Cette perspective économique suscite un intérêt grandissant des entreprises.
Certes les banques, pour leurs transactions, ou le secteur automobile, pour la production, n’ont pas
attendu l’arrivée de ce concept pour échanger avec leurs partenaires économiques. Mais la logique
de l’open data va bien au-delà. Il s’agit de diffuser les données sans présupposer de leur utilisation
future. À charge pour les acteurs de l’innovation de s’en emparer et de créer de nouveaux services.
Quelles sont les sociétés concernées au premier chef ? “ Les délégataires de services publics (DSP),
dans les mondes du transport, de l’énergie, de l’eau ou des déchets ”, répond Chloé Bonnet,
cofondatrice du cabinet Five by Five, structure spécialisée dans l’open data des organisations.
Dans le sillage des collectivités, des groupes comme Lyonnaise des eaux, La Poste ou encore SNCF
sont, eux aussi, incités à un devoir de transparence. D’autres grands noms, purement privés,
investissent à leur tour ce terrain : Crédit agricole, JPMorgan Credit, JPMorgan Chase, Nike,
l’assureur santé américain Aetna… “ Le monde bancaire et celui de la domotique, tous deux gros
producteurs de données, devraient constituer la deuxième vague de l’open data des entreprises ”,
prédit Chloé Bonnet.
Évidemment, leur démarche est intéressée. Certaines se servent de cette transparence comme
argument commercial. À l’instar de Nike qui, après le scandale lié au travail des enfants chez ses
sous-traitants, a commencé à publier les informations sur sa chaîne d’approvisionnement pour faire
la lumière sur ses pratiques de fabrication. Même souci de soigner son image pour Lyonnaise des
eaux qui, depuis mi-juin, publie sur son site des données sur la qualité de l’eau des communes.
L’union fait la force. Le véritable enjeu de ce partage des données tient à la meilleure valorisation
de celles-ci. Certes, la publication et la transformation de ce capital, autrefois conservé jalousement,
RI 2014
1/3
http://pro.01net.com
21/08/2013
12
profite d’abord à la société civile. “ Des chercheurs pourraient prédire les inondations grâce à
l’historique du niveau des cours d’eau dont nous disposons ”, illustre Frédéric Charles, DSI de
Lyonnaise des eaux. Mais les entreprises qui jouent le jeu sont, elles aussi, gagnantes. Car cela leur
permet de proposer à leurs clients de nouveaux services qu’elles n’auraient jamais imaginés, ou
même pu développés, en restant seules.
L’appli Tranquilien en est la parfaite illustration. “ La start up Snips, qui a programmé cette
application et les modèles prédictifs liés à l’affluence des trains, disposait de compétences
analytiques très poussées que nous n’avions pas en interne ”, relève Romain Lalanne, responsable
de l’open data de SNCF. Cette création profite aujourd’hui à l’activité logistitique du transporteur
ferroviaire. “ Avec Tranquilien, nous pourrions réguler, en théorie, une partie des demandes de
transport sans pour autant devoir affréter des trains supplémentaires ”, poursuit Romain Lalanne.
Mais les sociétés ne savent pas toujours quelles informations gagneraient à être exploitées. “ Les
données de localisation des cartes SIM des clients d’un opérateur, pourtant primordiales pour la
gestion de son réseau, offrent peu d’intérêt pour d’autres acteurs ”, signale à titre d’exemple Simon
Chignard, auteur de l’ouvrage “ Open Data ” et membre du réseau d’experts Etalab (la mission
gouvernementale chargée de l’ouverture des données publiques). À moins, bien sûr, qu’elles ne
soient rapprochées d’autres sources d’information, comme le trafic routier ou encore le parc
immobilier urbain.
Mêlées de données. Les services les plus pertinents pour les consommateurs ou les citoyens
s’obtiennent en mêlant des données publiques, des informations issues d’entreprises et d’autres
d’ordre personnel (géolocalisation de consommateurs, données saisies par les usagers…). “ C’est
grâce à ce triptyque que l’opérateur de transport londonien a pu absorber l’affluence record de
passagers lors des derniers jeux Olympiques ”, illustre Bruno Marzloff, directeur du cabinet
d’études Chronos. Comment ? Précisément en analysant toutes les données issues des cartes de
transport des usagers, des caméras de surveillance, des téléphones mobiles ou des fils Twitter afin
de mieux prévoir les flux des voyageurs.
Les sociétés ont également tout intérêt à collaborer entre elles. Les seules initiatives (timides) en la
matière concernent, pour l’instant, le transport des voyageurs tous moyens confondus. En mai, la
Mairie de Paris a ainsi organisé un concours de programmeurs (Moov’in The City) pour la création
d’applications visant à coordonner les différents modes de déplacement sur la capitale. RATP,
SNCF et JCDecaux (Velib’) ont à cette occasion partagé leurs données. “ Nous pourrions imaginer
que tous les opérateurs municipaux (EDF, sociétés de distribution d’eau…) s’organisent pour
réunir les éléments d’information liés aux travaux. Ici, l’open data se mettrait au service d’une
meilleure coordination des activités ”, se prend à rêver Frédéric Charles.
Pour l’heure, la plupart des entreprises ne sont tout simplement pas prêtes à “ libérer ” leurs
données. Ne serait-ce que pour des questions de sécurité ou de confidentialité. Elles préfèrent
souvent ouvrir leurs interfaces de programmation (ou API), donnant ainsi à la communauté des
développeurs l’occasion de concevoir des logiciels dialoguant avec leurs systèmes d’information.
Un concept qui a le mérite de conserver l’esprit initial de l’open data (rendre service à la
communauté, lui permettre de se réapproprier certaines informations) tout en sécurisant les données
de l’entreprise.
Solutions alternatives. Crédit agricole a emprunté cette voie avec son CA Store, lancé en
septembre dernier. Il s’agit d’une place de marché d’applications mobiles qui met en relation clients
et développeurs. Les premiers sont invités à déposer leurs idées d’applications et à noter les
suggestions déjà déposées. Charge ensuite aux seconds, les développeurs, surnommés ici des
digiculteurs, de bâtir les applications suscitant l’intérêt le plus large. Ces derniers ne manipulent
RI 2014
2/3
http://pro.01net.com
21/08/2013
12
aucune donnée des clients. La banque leur donne simplement accès à une interface de
programmation documentée et à une clé qui leur ouvre les portes d’entrée du système
d’information. Crédit agricole s’assure ainsi qu’elle répond réellement aux besoins de sa clientèle.
La Poste a adopté une démarche similaire avec son service d’identité numérique (IDN), un système
initialement utilisé pour les courriers recommandés électroniques. Désormais, il donne accès à une
liste des internautes dont l’identité a pu être vérifiée par un facteur. Depuis octobre dernier, les sites
d’échange et de location entre particuliers peuvent facilement intégrer ce service (grâce à une API)
sur leur site en ligne. Avec cette garantie contre l’usurpation d’identité, leurs clients ont plus de
chance de réussir leur troc ou leur location.
Malheureusement, peu de sociétés se sentent aujourd’hui capables d’en faire autant, car autoriser
l’accès au trésor que représentent leurs données est un virage culturel radical. Celles qui choisissent
le statu quo passent à côté de nouveaux services innovants pour leurs consommateurs. Et se privent
au passage des bénéfices indirects des projets open data, qui conduisent souvent à une meilleure
diffusion de l’information au sein de l’entreprise. Des chantiers de modernisation, dont Lyonnaise
des eaux et SNCF tirent parti aujourd’hui.
Au final, c’est souvent le pragmatisme qui prévaut à l’heure de franchir le pas. “ Si nous n’avions
pas permis aux clients de mieux gérer leurs données personnelles, d’autres l’auraient fait à notre
place, assure Emmanuel Methivier, dirigeant du GIE CA Store. Et pas toujours dans les conditions
de sécurité et de confidentialité que nous souhaiterions. ” Crédit Agricole a donc choisi d’appliquer
l’adage affirmant que l’on n’est jamais mieux servi que par soi-même. En ouvrant ses données,
mais selon ses propres règles.
Une place de marché de la donnée pour améliorer les services Urbains
On entend souvent dire que les données sont le pétrole de demain. Mais il est difficile
d’estimer leur valeur aujourd’hui. À plus forte raison lorsqu’elles émanent des entreprises.
C’est précisément pour déceler ce potentiel qu’une vingtaine de sociétés se réunissent depuis
deux ans à l’initiative du cabinet d’études Chronos. Baptisé Datact, ce programme, qui
réunit des entreprises comme EDF, SNCF, La Poste, Total, Pages jaunes ou Vinci, a
commencé par une longue phase de réflexion. “ Il nous a fallu un an pour admettre l’idée
que croiser des sources différentes conférerait de la valeur aux données. Puis une autre à
étudier les modèles économiques derrière cette valorisation ”, explique Bruno Marzloff,
directeur de Chronos.
Les initiatives devraient voir le jour cette année, puisqu’il est envisagé de bâtir une véritable
place de marché pour la publication et le partage des informations autour des services
urbains. Elle s’appuiera sur un protocole facilitant le partage des informations, ainsi que sur
une liste des services coproduits par les entreprises partenaires de Datact (intermodularité
des transports, gestion de l’énergie, mobilité…). Restent quelques incertitudes. “ La plateforme ne sera alimentée que si nous parvenons à démontrer la valeur de ces services. C’est
tout l’enjeu de nos réflexions ”, tempère Stéphane Evanno, vice-président responsable du
développement mobilité et ville intelligente chez Bosch France. Cet industriel allemand
fournira l’application. Autre enjeu : le traitement des données avant leur publication.
“ Celles que détiennent les entreprises ne sont pas toujours propres ni cohérentes ”,
souligne Stéphane Evanno. Un toilettage préalable sera indispensable.
Vincent Berdot
Olivier Discazeaux
RI 2014
3/3
http://pro.01net.com
21/08/2013

Documents pareils

Open Data : quels enjeux et opportunités pour l`entreprise

Open Data : quels enjeux et opportunités pour l`entreprise Le mouvement d’ouverture des données (Open Data) s’inscrit dans ces trois tendances essentielles et dans une dynamique forte, le fameux « momentum » anglais. Celui-ci emporte progressivement l’adhé...

Plus en détail