12 livres en 12 mois pour comprendre la transformation numérique

livreLe passage d’une année à une autre est souvent l’occasion des bilans. Durant la période des fêtes, L’Usine Digitale nous a proposé une sélection de 12 romans, essais, chroniques, etc. parus en 2015, qui apportent des éclairages particuliers sur la transformation numérique de nos vies.

Vous ne les avez sans doute pas encore tous lus, alors voilà la liste de ces ouvrages avec, pour chacun, un lien vers l’article qui le présente succinctement :

  • L’âge du faire : le sociologue Michel Lallement nous emmène à la rencontre des makers, et s’intéresse à cette nouvelle façon de produire, loin du schéma de l’entreprise classique.
  • La déconnexion des élites : la journaliste Laure Belot mesure la nouvelle fracture numérique existant entre les élites politiques, intellectuelles et économiques et le reste de la société, et en évalue les conséquences.
  • A qui profite le clic ? : dans cet essai, les juristes Valérie-Laure Benabou et Judith Rochfeld s’interrogent sur les questions de la propriété intellectuelle et du partage de la valeur à l’ère de la création numérique.
  • A quoi rêvent les algorithmes ? : le sociologue Dominique Cardon nous livre sa réflexion sur le pouvoir croissant des algorithmes et, au-delà de la seule technique, les questions morales, sociales et politiques qu’ils soulèvent.
  • On m’avait dit que c’était impossible : Jean-Baptiste Rudelle, fondateur de Criteo, le spécialiste français du reciblage publicitaire, nous raconte l’épopée de sa société, qui séduit désormais des annonceurs du monde entier.
  • La France du bon coin : pour rédiger ce rapport, le consultant David Ménascé est allé à la rencontre de ces gens, de plus en plus nombreux, qui, après leur journée de travail, deviennent des micro-entrepreneurs dans le cadre de l’économie collaborative.
  • Les développeurs : le chercheur Paris Chrysos s’intéresse à ces pièces maîtresses de la transformation digitale qui, surfant entre tâches rémunérées et bénévolat, inventent un nouveau rapport au travail.
  • Bienvenue dans le capitalisme 3.0 : les journalistes Sandrine Cassini et Philippe Escande livrent une synthèse des enjeux posés par la révolution digitale actuellement en cours.
  • L’âge de la multitude (2e édition) : cette 2ème édition du classique d’Henri Verdier et Nicolas Colin est l’occasion de (re)découvrir comment les milliards d’individus qui forment la « multitude » sont devenus la clé du succès des organisations post-révolution numérique.
  • Bovary 21 : dans ce roman contant l’histoire d’une madame Bovary des temps ultramodernes, Georges Lewi critique les abus du monde du marketing et la manipulation liée aux réseaux sociaux.
  • Le monde est clos et le désir infini : nous faisant voyager au cœur des mécanismes qui ont fait advenir la société moderne, l’économiste Daniel Cohen explique pourquoi l’humanité aspire intensément à une croissance de plus en plus fugitive.
  • La gouvernance par les nombres : le juriste Alain Supiot nous montre comment les nombres qui structurent notre vision du monde ont soumis les lois à un « calcul d’utilité », faisant en sorte qu’elles servent des « harmonies économiques ».

Bonne lecture !

« L’homme n’est pas un ordinateur qu’on allume le matin et qu’on éteint le soir »

Beatriz Arantes est chercheuse pour Steelcase, le spécialiste américain du mobilier de bureau et aménagement des espaces de travail. Elle vient de réaliser une étude dans laquelle elle s’intéresse aux connaissances apportées par les neurosciences sur l’attention au travail. Elle y vérifie ce que l’on pressentait tous intuitivement : l’idée d’un travail continu est une aberration. Pour bien fonctionner, et être efficace et créatif, le cerveau a besoin de plages de repos et de détente.

rythmes_cerveau

Retrouvez son interview dans L’Usine Nouvelle.

Les opérateurs télécoms en 5 graphiques : la chute se poursuit !

Avec un peu de retard, nous actualisons les graphiques qui permettent d’appréhender, de manière synthétique, les indicateurs clefs des opérateurs de télécommunications en France avec les données consolidées de l’année 2014.

Vous pouvez retrouver sur ce blog nos analyses des données 2008, 2010, 2011, 2012 et 2013.

Ces indicateurs proviennent de l’Observatoire des marchés consolidé par l’Arcep, régulateur français des télécoms, les chiffres étant tirés des séries annuelles depuis 1998, dont nous intégrons les actualisations rétroactives dans nos graphiques. Nous les complétons par l’analyse des données présentées par France Télécom-Orange dans son document de référence 2014.

Ils ne concernent que les opérateurs de télécommunications, hors activité des autres acteurs de la filière, et le marché français.

Les revenus des opérateurs atteignent leur plus bas niveau depuis 12 ans

Certes, la baisse de revenus observée par les opérateurs en 2014 (-3,4%) est moins importante que celle de 2013 (-7,3%). Toutefois, les services mobiles (-7%) continuent à tirer le marché vers le bas, alors même que le nombre d’abonnés (+2,5%) et, surtout, le trafic (+7% pour la voix, +2% pour les SMS et +97% pour la data !) ne cessent d’augmenter. De fait, l’étude de l’Arcep sur l’évolution des prix des services mobiles met en lumière une baisse moyenne de 10% en 2014, certes moins importante que celle observée en 2013 (-26%), mais qui continue d’impacter fortement les revenus d’opérateurs engagés dans la spirale du « low-cost » depuis l’arrivée de Free Mobile en 2012. En effet, si l’impact maximal a eu lieu l’année même du lancement de Free Mobile, les renouvellements de contrats qui arrivent à échéance dans les années qui suivent se font systématiquement à des conditions tarifaires en baisse… d’autant plus dans un contexte de morosité économique, alimentée par un chômage de masse qui devient, malheureusement, une constante de notre vie économique.

revenus

Appelé, fin 2014, à commenter ces chiffres et à extrapoler sur leur évolution future, Jean-Ludovic Silicani, alors Président de l’Arcep, pariait sur un accroissement des revenus des opérateurs pour 2015. Pour justifier son optimisme, il estimait que la guerre des prix arrivait à son terme et qu’une « cure d’amaigrissement » du marché avait contribué à son « assainissement ». Hélas, comme toujours, ce sont les emplois du secteur qui ont fait les frais de ce régime forcé, sacrifiés sur l’autel des politiques de rationalisation des coûts des opérateurs. Mais le régulateur n’en a cure, obnubilé par la religion de la concurrence à tout prix.

Les opérateurs poursuivent leur politique de réduction d’effectifs

emplois

De fait, 3000 postes ont été supprimés dans le secteur des télécoms en 2014, soit une baisse des effectifs de 2,5%. De façon logique, la courbe globale du secteur suit de près les fluctuations de l’opérateur historique (qui s’est délesté de 2,6% de ses effectifs contre 2,2% pour ses concurrents), qui représente toujours 82% des effectifs du secteur. Ainsi, les 5000 emplois nets créés entre 2009 et 2012, sous l’effet du « nouveau contrat social » négocié par les organisations syndicales auprès de la direction d’Orange, ont été contrebalancés par… plus de 7000 suppressions de postes en deux ans suite à la fin de cet accord.

emploisOrange

Avec près de 2700 emplois supprimés en 2014, Orange est passé sous la barre symbolique des 100 000 employés en France. La Direction de l’opérateur historique poursuit sa politique de réduction d’effectifs sans plan social, se contentant de s’appuyer sur une pyramide des âges vieillissante : en 2014, les 1600 embauches en CDI n’ont pas compensé les 3600 départs, essentiellement en retraite. Ce mouvement n’est pas près de s’inverser, le Groupe tablant sur le départ à la retraite de 30 000 salariés sur la période 2013-2020, dont une grande partie ne sera pas remplacée : l’objectif affiché est de stabiliser les effectifs autour de 66 000 à l’horizon 2020.

Au final, confronté à la pression d’un marché toujours très concurrentiel, et d’un actionnaire principal (l’État) qui réclame toujours un dividende plus élevé que l’entreprise ne peut le supporter, Orange continue à faire supporter à ses personnels l’essentiel de son effort de rationalisation des coûts, par la baisse des effectifs, mais aussi par la mise en œuvre de mesures d’économie, certes moins « drahistiques » que chez Numericable-SFR, mais qui constituent une pression quotidienne à l’impossible injonction de faire toujours plus avec toujours moins de moyens.

emplois-alternatifs

La situation n’est pas meilleure du côté des opérateurs alternatifs, qui ont vu disparaître un peu plus de 500 emplois en 2014, et aux dernières nouvelles, elle ne devrait pas s’arranger : en juin 2014, Bouygues Télécom annonçait la suppression à venir de 1500 emplois, tandis que le rachat de SFR par Numéricable menacerait à terme entre 1000 et 2000 emplois selon une estimation du Ministère de l’Économie et des Finances.

Les investissements hors achats de licences sont à leur plus bas niveau depuis 4 ans

investissements

Après les achats de licences 4G des années 2011 et 2012, les investissements ont retrouvé un niveau plus « normal » depuis 2013. En 2014, ils ont à peine dépassé la barre des 7 millions d’euros (-2,9% par rapport à 2013), et si on met de côté les rares achats de licences pendant la période, les investissements sont restés en deçà des 7 milliards d’euros, à 6 906 millions d’euros (-3,5%), pour la première fois depuis 2010.

SFR a notablement contribué à cette baisse, en diminuant ses investissements d’infrastructures de 150 millions d’euros, durant la période d’attentisme qui a précédé sa fusion avec Numericable. La politique mise en œuvre par le repreneur risque de ne pas améliorer les choses en 2015… d’autant que tous les opérateurs ont fortement investi dans l’acquisition de nouvelles licences 4G. (Au total, les lauréats devront verser à l’État une redevance fixe de 2 798 976 324 euros. Celle-ci est exigible en quatre quarts entre 2015 et 2018. Ils verseront également une redevance variable égale à 1% du chiffre d’affaires réalisé sur les fréquences concernées. Source : Arcep)

Ces chiffres ne mentionnent pas les dégâts intervenus dans le reste de la filière télécoms

Aucun acteur n’ose plus suivre en détail l’évolution de l’emploi chez l’ensemble des acteurs de la filière des télécoms en France (équipementiers, centres d’appels, réseaux de distribution spécialisés, sous-traitants en génie civil, SSII intervenant directement chez les opérateurs ou dans le domaine des services numériques…).

Les données publiées par la Fédération Française des Télécoms (enquête Arthur D.Little publiée en 2014 et en 2015), qui n’agglomèrent que les 5 premiers acteurs des activités suivantes : opérateurs télécoms, équipementiers réseaux, fabricants de terminaux (qui n’engendrent que très peu d’emplois directs), fournisseurs de contenus et acteurs internet OTT, montrent cependant une très nette baisse de l’emploi :

  • 2012 : 170 000 emplois
  • 2013 : 159 000 emplois
  • 2014 : 156 000 emplois

14 000 emplois perdus en 3 ans sur ce périmètre, dont la moitié chez les opérateurs de réseaux, et sans compter tous les autres sous-traitants du secteur, dont certains ne font plus parler d’eux… ayant purement et simplement disparu du paysage, c’est énorme pour un secteur unanimement reconnu comme l’un des principaux vecteurs de croissance pour l’économie occidentale.

Alors que « l’uberisation » constitue la nouvelle perspective de l’économie numérique (ou portée par le numérique), et sachant quels dégâts elle produit sur la création de valeur et d’emplois stables, il est plus que temps que nos dirigeants se retroussent les manches pour créer les conditions d’une croissance riche en emplois de qualité !

Big Data : de nombreux risques, pour l’entreprise comme pour le citoyen

Interviewée en 2012, la Vice-Présidente Marketing américaine du spécialiste de l’informatique décisionnelle SAS affirmait qu’en matière de Big Data, « le plus grand risque est de ne rien faire ». Trois ans après cette déclaration, la plupart des projets de Big Data en sont encore au niveau expérimental.

Pour l’entreprise, le premier risque en matière de Big Data, c’est l’échec !

Etant donné le coût élevé des projets, les dirigeants doivent avoir du mal à accepter des verbatim tels que ceux de la récente étude de Capgemini : « seuls 27% des cadres interrogés estiment que leurs initiatives liées au Big Data sont couronnées de succès ». Voilà un pourcentage de réussite très faible, surtout si on garde à l’esprit que les projets en production ne sont, pour l’instant, pas si nombreux (seulement 13% des entreprises concernées, toujours selon Capgemini).

Il faut dire que les causes potentielles d’échecs sont multiples. L’étude Capgemini met en avant des difficultés d’ordre principalement technique : l’absence de cas d’usages suffisamment clairs pour l’instant, la difficulté de collecte de données dispersées dans des silos non intégrés, une coordination inefficace des démarches d’analyse, une trop grande dépendance vis-à-vis des systèmes préexistants de traitement des données. Les dirigeants français interrogés dans le livre blanc d’EBG proposent une vision qui va au-delà du challenge technique. Ils pointent ainsi du doigt des difficultés plus stratégiques, telles que les risques de « se perdre dans le foisonnement de la donnée » et de se laisser gagner par l’infobésité, ou encore de mal appréhender le « dilemme de la monétisation des données », entre commercialisation directe, ouverture gratuite vers l’extérieur ou confinement interne. Ils évoquent aussi des obstacles organisationnels comme la difficulté à instaurer dans l’entreprise une « culture de la donnée » qui vient souvent se heurter à l’incompréhension et à l’indifférence, sinon à la méfiance ou à la défiance des salariés. Par ailleurs, ils déplorent que les fameux « data scientists » restent, pour l’instant, des profils rares, causant un « épineux problème de compétences ».

Enfin, toutes les questions relatives à la nature même des données personnelles et aux conditions de leur collecte, de leur stockage et de leur analyse, sont bien évidemment au centre du débat. Elles représentent autant de sources potentielles de dangers, tant pour le citoyen, qui met en jeu sa vie privée, que pour l’entreprise, qui met dans la balance la confiance de ses clients. Ces problématiques ont déjà suscité nombre de tribunes libres, mais nous allons ici essayer des sérier les risques.

Mes données privées sur la place publique…

Quelle est actuellement l’opinion sur le Big Data des 600 millions d’utilisateurs du site AdultFriendFinder, « La plus grande communauté de rencontres, de plans et sexe », dont les données ont été piratées et diffusées en ligne il y a quelques semaines ? Figurant parmi les derniers d’une série, déjà longue, de scandales liés aux failles informatiques, cet épisode rappelle à quel point, dans un monde de plus en plus connecté et interconnecté, la question de la sécurité des données est cruciale pour la protection de la vie privée. Il en est de même pour les données financières, le piratage d’un processus d’achat en ligne étant susceptible d’avoir des conséquences économiques très graves, pour l’entreprise comme pour ses clients.

… ou surexploitées par les entreprises et les pouvoirs publics

Ce risque accapare l’essentiel du débat. Alors, bien sûr, en France l’utilisation des données personnelles est soumise à la loi Informatique et Libertés – qui, au passage, est bien antérieure au Big Data, puisqu’elle a été promulguée en 1978 en tant que bouclier au projet SAFARI d’interconnexion des fichiers nominatifs de l’administration que souhaitait mettre en place le gouvernement de l’époque. Par ailleurs, le principe de l’opt-in, notamment dans le cadre d’une utilisation marketing des données, permet de contrôler une partie des informations personnelles que nous divulguons. Mais, chaque jour, les géants du Web inventent de nouvelles façons de scruter et d’analyser nos comportements en ligne : aujourd’hui, c’est Facebook qui nous annonce qu’il va modifier son algorithme, qui sera bientôt capable de mesurer le temps passé par un internaute sur un contenu donné, cette connaissance plus fine des goûts des utilisateurs se traduisant par une publicité toujours plus personnalisée. Et n’oublions pas les objets connectés susceptibles de véhiculer une masse importante d’informations sur nos modes de vie, notre façon de consommer, nos habitudes et préférences. D’une utilisation encore limitée aujourd’hui, ils devraient se répandre dans les années à venir.
Aujourd’hui, qu’il prenne la forme d’une entreprise ou d’un organe étatique, Big Brother ne se cache plus derrière la porte, il l’ouvre en grand sans même prendre la peine de sonner. Sous prétexte de faciliter les échanges économiques ou de renforcer la sureté nationale, les législations fleurissent qui, à l’instar de la récente Loi Renseignement, légitiment le recours à des méthodes de surveillance de plus en plus poussées. De nombreuses voix s’élèvent pour dénoncer l’instauration d’un contexte de plus en plus orwellien et insistent sur l’importance de la protection de la vie privée, même quand on n’a « rien à cacher ».

Et si quelques entreprises accaparaient la donnée ?

La dernière catégorie de risques est liée à une monopolisation de la majeure partie des données par un groupe restreint d’entreprises, en premier lieu les fameux GAFA (Google, Facebook, Facebook, Amazon), susceptibles de les monétiser via le commerce et/ou la publicité.

Big Data_risques_image

La détention de cet or noir est susceptible de leur conférer un pouvoir encore supérieur à celui, important, qu’elles détiennent déjà. Plusieurs menaces affleurent, induites par cette position monopolistique : une vassalisation de la recherche scientifique publique au profit de ces sociétés, une mésinterprétation/surinterprétation des données pour les faire aller dans le sens souhaité sans risque de contradiction, un appauvrissement de l’offre de produits/services proposés en la limitant aux succès prédits par le Big Data, une exacerbation de la fracture numérique entre les entreprises détentrices des données et capables de les analyser… et les autres.

 

Alors, effectivement, en matière de Big Data, le plus grand risque est sans doute que l’on ne fasse rien, que les entreprises et les pouvoirs publics ne prennent pas conscience de leurs responsabilités, ni les citoyens de leurs droits.

Toutes ces problématiques seront bien évidemment abordées lors de l’Université d’été de la CFE-CGC Orange, qui aura lieu en début de semaine prochaine, les 22 et 23 juin.

Big Data : quelles opportunités pour les entreprises françaises ?

Parmi les « 34 plans de reconquête industrielle » lancés par le gouvernement français en juillet 2014, figurait en bonne place un plan dédié au Big Data, poursuivant l’objectif ambitieux de « faire de la France la référence mondiale dans ce domaine ». Co-piloté par François Bourdoncle, Président du cabinet de conseil FB&Cie, et Paul Hermelin, PDG de Capgemini, il propose une feuille de route, articulée en trois points : renforcer l’offre de technologies et de services (en développant la formation, en favorisant l’innovation ouverte, en soutenant les start-ups), lancer des projets sectoriels publics et privés, et faire évoluer le contexte réglementaire et législatif.

De fait, si l’ogre américain se pose en précurseur incontesté du Big Data, tant pour l’investissement dans cette technologie que pour son adoption, les spécialistes français du secteur présentent certains arguments, tandis que les entreprises de l’hexagone commencent peu à peu à exploiter le filon.

Les start-ups françaises ont des idées… mais ce sont les géants américains qui disposent des données

Comme le montre l’infographie ci-dessous, issue d’une récente étude Xerfi, le secteur du Big Data associe les géants de l’IT, les mastodontes du digital (Google, Apple, Facebook, Amazon, désormais identifiés sous le sigle GAFA) et une foule de start-ups spécialisées dans un domaine ou un autre.

Big Data_opportunités_image1

Si on met de côté les intégrateurs, la plupart des spécialistes français du secteur sont des start-ups, et non des grands groupes. Cela ne les empêche pas d’enregistrer de belles réussites, à tous les étages de la chaîne de valeur du Big Data : la production et la collecte des données, avec plusieurs leaders sur le marché des objets connectés, tels que Withings, Netatmo ou encore Parrot, le traitement et l’analyse, avec des spécialistes comme 1000mercis ou fifty-five, et la mise en oeuvre de nouvelles applications, à l’instar de Criteo, qui séduit les annonceurs du monde entier avec son service de reciblage publicitaire (un internaute s’intéresse à un produit sur un site A, sans l’acheter ; lorsqu’il visite un site B, il voit apparaître une bannière publicitaire pour ce même produit, avec redirection vers le site A).

Alimenté par une formation de qualité, le tissu vivace des start-ups françaises part toutefois avec un handicap certain, un constat qui vaut d’ailleurs pour l’ensemble de l’Europe : la plus grande part des données est aux mains des entreprises américaines, notamment les fameux GAFA qui contrôlent les services grand public les plus développés de l’univers numérique. Sur le plan mondial, seule la Chine est capable de rivaliser, avec des acteurs comme le moteur de recherche Baidu, la plateforme de e-commerce Alibaba ou le spécialiste des services Web Tencent.

Aussi, pour favoriser le développement du Big Data de l’Hexagone, les principaux acteurs français plaident pour une libéralisation des données personnelles, notamment via l’assouplissement d’un cadre juridique qu’ils trouvent trop restrictif. Par ailleurs, de grandes entreprises envisagent la mise en commun de leurs données, à l’image de l’expérimentation Mesinfos menée, depuis 2012, par la Fing, en collaboration avec des acteurs de divers secteurs comme AXA, la Banque Postale, la Société Générale, Intermarché ou Orange, qui a permis de créer de nouveaux services autour des « selfdata ».

Les entreprises françaises avancent (doucement) dans l’exploitation du Big Data

La maturité des entreprises françaises en matière d’exploitation du Big Data reste encore limitée. Comme d’habitude, les données statistiques varient d’une étude à l’autre, en fonction des périmètres d’analyse, mais le cabinet Markess fournit un panorama assez exhaustif : 75% des décideurs interrogés affirment avoir une bonne connaissance du sujet et, si seuls 11% indiquent avoir déjà mené un projet lié au Big Data, 37% mentionnent avoir des réflexions ou des projets en cours.

L’étude Ernst & Young nous permet de comprendre pourquoi le « Big Data bang » n’a pas encore eu lieu en France, en remontant 10 freins à la mise en œuvre des projets, étayés par autant de chiffres :

Big Data_opportunités_image2

Ajoutons à cela un coût encore assez dissuasif, et on comprend mieux pourquoi, malgré un frémissement, le Big Data n’a pas réellement décollé en France. Si les cabinets d’études et autres think tanks ne sont pas avares de propositions pour susciter ce décollage, de nombreuses interrogations demeurent encore. Sans parler des risques associés, pour les acteurs économiques comme pour les citoyens… qui feront l’objet du prochain article.

Le problème avec l’exception, c’est quand elle devient la règle

Le Sénat vient, sans surprise, d’approuver à une très large majorité le toujours aussi contesté projet de loi sur le renseignement, le modifiant légèrement pour un peu plus d’encadrement, sans rien changer au fond du texte. Les fameuses « boîtes noires », censées permettre la détection de terroristes présumés en analysant le trafic chez les hébergeurs et les fournisseurs d’accès, sont notamment passées comme une lettre à la poste.

Au même moment, l’impertinente équipe de Data Gueule, émission de format court produite par France 4, vient de publier une vidéo pédagogique intitulée « Privés de vie privée ? ».

Après avoir, il y a quelques mois, décortiqué les chiffres et les enjeux liés au Big Data, l’équipe de DataGueule explique les tenants et les aboutissants de la Loi Renseignement. « Protéger le secret des communications, c’est éviter que l’exception devienne la règle » estiment les auteurs. Ils évoquent notamment l’exemple du Patriot Act américain, adopté temporairement après le 11 septembre 2001 et toujours en vigueur, bien que récemment remis en cause après les révélations d’Edward Snowden sur les pratiques de la NSA.

Prochaine étape au Conseil Constitutionnel, qui va visiblement avoir beaucoup de travail puisque tout le monde veut y soumettre la Loi Renseignement, le Président de la République, un groupe de députés et, désormais, un groupe de sénateurs.

Et maintenant, le Big Data va sauver le monde !

Il y a quelques jours, le journal Les Echos offrait une tribune libre à Jeffrey Sachs, intitulée « Les données, une nouvelle arme contre la pauvreté ». L’économiste américain, directeur de l’Institut de la Terre de l’Université de Columbia et consultant spécial du Secrétaire Général des Nations Unies, Ban Ki-moon, commence fort en affirmant :

Avec de faibles investissements, cette massification des données pourrait également conduire à une révolution du développement durable. Et accélérer les progrès vers l’éradication de la pauvreté, en favorisant l’intégration sociale et la protection de l’environnement.

Sachs détaille les nombreux bienfaits liés au Big Data, qui « révolutionne déjà » la fourniture et la gestion des prestations de services par les gouvernements et les entreprises, et qui permet « à l’opinion publique d’identifier les problèmes et de tenir les institutions publiques et les entreprises pour responsables ». Il lui attribue enfin un dernier objectif : « permettre à l’opinion publique de savoir si oui ou non un objectif mondial est réellement atteint ». Evoquant les objectifs du programme Millénium de l’ONU, dont il est l’instigateur et le directeur, il évoque le manque de connaissances précises pour savoir s’ils ont été atteints, « en raison de l’absence de données de haute qualité, en temps opportun » et estime que « la révolution des données peut mettre fin à des longs délais et améliorer considérablement la qualité de ces données ».

De façon peu surprenante, Jeffrey Sachs nous offre ici une vision complètement angélique du Big Data. De fait, il prêche pour sa paroisse. En fait, il semble que la majeure partie des objectifs fixés dans le cadre du programme Millénium ne soient pas mesurables. Ainsi, cité dans le Financial Times, un rapport de l’ONU estime que moins de 60% des données permettant cette évaluation sont disponibles dans les pays émergeants (cf. graphe ci-dessous), et ce malgré « d’énormes investissements ». Mieux encore, seulement la moitié de ces données est fournie par les pays eux-mêmes, l’autre moitié étant estimée. Difficile, dans ces conditions, de justifier de la réussite d’un programme dont même le Secrétaire Général de l’ONU reconnaît l’insuffisance des avancées.

Big Data_déceloppement_imageCe n’est évidemment pas la première fois qu’est évoqué le recours au Big Data pour les problématiques liées au développement – l’ONU y a même dédié un programme, Global Pulse. Mais il est étonnant que le très sérieux journal Les Echos n’ait pas apporté de contrepoint à la vision de Jeffrey Sachs. Ils auraient, par exemple, pu faire appel au statisticien français Emmanuel Letouzé, fondateur du think tank Data-Pop Alliance. Sa très intéressante interview pour le site KDnuggets montre notamment que s’il promeut le Big Data en tant qu’outil statistique pour l’évaluation des politiques de développement, il n’oublie pas de questionner ses aspects politiques et éthiques (protection de la vie privée, accès aux données, anonymisation) ainsi que la validité des données recueillies : selon lui, la production de ces dernières par une certaine catégorie de personnes seulement, par exemple celles qui ont accès à Internet, introduit un biais dont les modèles prédictifs doivent impérativement tenir compte.

Au final, Les Echos passent sous silence le risque important à laisser croire que le Big Data est la solution à tous les problèmes.

Retrouvez ci-dessous notre série d’articles portant sur le Big Data, problématique qui sera au centre de l’Université d’été de la CFE-CGC Orange, qui aura lieu les 22 et 23 juin.

Big Data : le nouveau couteau suisse des entreprises et des administrations

Au-delà de ses nombreuses applications en matière de marketing et de relation client, présentées dans un précédent article, le Big Data propose bien d’autres cas d’usage, mis en œuvre par les entreprises et les administrations. Tous les secteurs sont touchés, comme nous le rappelle l’infographie ci-dessous, tirée d’une présentation de Business & Decision.

Big Data_usages autres_image

Le Big Data transforme toutes les fonctions de l’entreprises… jusqu’aux RH

Gartner nous rappelle que l’optimisation des process opérationnels d’une entreprise, tout particulièrement dans le pilotage de son activité, est un des principaux leviers à l’adoption des technologies Big Data. Ces dernières lui permettent d’accroître son efficacité et de réduire ses coûts et ses pertes liées au matériel et/ou à la production. En s’appuyant notamment sur les technologies, désormais matures, de machine-to-machine, les entreprises sont mieux outillées pour gérer les problématiques relatives à leurs équipements de production, ainsi que les nombreux éléments de leur chaîne logistique.

Mais l’exemple d’utilisation le plus émergent du Big Data en entreprise concerne le management de l’humain, à travers son adoption croissante par les services de Ressources Humaines, dont il redessine les outils et méthodes. Il devient possible de « matcher » par analyse sémantique les offres d’emploi existantes avec les profils des candidats potentiels identifiés via les réseaux sociaux, ou de s’appuyer sur des modèles statistiques pour identifier les profils qui présentent les meilleures chances de réussite sur un poste. Il restera à vérifier à moyen terme l’efficacité de méthodes aussi terrifiantes : souvenons-nous que chez France Télécom, la Direction des ressources humaines était très fière d’afficher la mise en place des « e-RH », censées résoudre tous les problèmes tout en faisant des économies… jusqu’à la crise sociale de 2009, qui a démontré l’impérieuse nécessité de renforcer sérieusement les équipes RH… par de bons vieux humains ! Même dans une société technologique, l’informatique n’est pas toujours « magique ».

A chaque métier, ses applications Big Data

A chaque problématique métier est associée une ou plusieurs applications faisant appel au Big Data.

Le domaine de la santé est déjà très avancé en la matière. Ainsi, les objets connectés de monitoring permettent le maintien à domicile de certains malades longue durée, dont les données sont analysées en temps réel pour un traitement adapté en fonction de l’évolution de leurs pathologies. Au-delà des cas individuels, un service comme Google Flu Trends s’avère précieux pour le suivi et les prévisions liés à l’évolution d’une épidémie. Enfin, l’avènement du Big Data fait également progresser la recherche. Ainsi, on a pu diviser par 10 000 le temps et le coût nécessaires à la modélisation du génome d’une personne – qui permet de découvrir ses prédispositions génétiques au développement d’une maladie, pour mieux la prévenir.

Le secteur financier a recours au Big Data pour optimiser la gestion des risques et prévenir la fraude. Ainsi, les compagnies d’assurance sont désormais susceptibles d’évaluer de plus en plus précisément le risque relatif à chacun de leurs assurés, pour leur proposer les produits les plus adaptés… quitte à remettre en cause le principe de mutualisation des risques qui régit la profession, brisant ainsi la solidarité entre les assurés. Egalement concernés par la gestion des risques, les banques et organismes de paiement luttent aussi contre la fraude, notamment le scam, technique d’extorsion de fonds en ligne, à l’image de Western Union, qui passe les transferts de fonds douteux au microscope du Big Data.

Pour les grands acteurs de l’énergie, le Big Data permet de répondre à plusieurs problématiques et de rendre leur activité plus « intelligente » et écologique : le « smart grid » a déjà donné naissance aux compteurs intelligents, en attendant, bientôt, des réseaux électriques capables d’optimiser la production et la répartition de l’énergie en fonction des besoins instantanés. Une entreprise comme Veolia s’attache, pour sa part, à la réduction du gaspillage d’eau, au travers de technologies permettant de détecter les fuites, limiter les débordements d’égouts, gérer les pressions et réduire la consommation d’eau.
Le Big Data se met également au service de l’écologie dans le secteur du transport, qui s’attache à réduire son empreinte écologique, tandis que l’analyse avancée de données permet au secteur agricole de mettre en place une agriculture « de précision » visant à limiter la consommation d’eau et l’utilisation d’engrais ou de pesticides.

Bref, le Big Data s’introduit dans tous les secteurs, même les plus improbables, par exemple en prédisant quels films vont s’imposer au box office, ou encore en aidant l’Allemagne à remporter la dernière Coupe du Monde de football (mais où est la « glorieuse incertitude du sport » ?).

La « Smart Administration », forcément « big datée »

Dans la « Smart City », infrastructures, usagers et administrations sont connectées et communiquent entre eux, les informations étant ensuite regroupées et traitées, via les technologies du Big Data, pour permettre à la ville de devenir intelligente, à court ou à long terme : les gestionnaires de la ville, administrations ou sociétés privés, sont à même d’améliorer le quotidien en temps réel, en optimisant le trafic, les dépenses énergétiques, l’accès aux services administratifs, l’allocation des ressources médicales… mais aussi de dégager des prévisions qui permettent aux pouvoirs publics de dessiner la ville de demain, avec de nouvelles infrastructures. De leur côté, les usagers participent au développement de leur ville à la fois en partageant des informations (détection de dysfonctionnements, remontée d’informations concernant le trafic) et en modifiant leurs comportements, en termes de déplacements, de gestion des déchets, ou de consommation énergétique.
Si les projets de « Smart City » sont nombreux, la plupart restent encore flous et, surtout, rarement globaux. En France, la ville la plus avancée est Nice, qui figure même dans le Top 5 mondial.

Enfin, récemment mis sous le feu des projecteurs par la très controversée Loi Renseignement, l’usage du Big Data dans le cadre de la lutte contre la criminalité est évidemment bien plus développé en Amérique du Nord. Il permet notamment de fournir en temps réel des informations pertinentes aux équipes de terrain, d’aider à la résolution des enquêtes et même de prévenir les crimes, dans un remake de Minority Report qui fait tout de même froid dans le dos.

Nous voilà donc désormais au fait des nombreux usages du Big Data. Ce dernier constitue-t-il une chance à saisir pour l’économie française ou sera-t-il la chasse réservée des seuls mastodontes américains du Web ? La suite au prochain numéro…

Big Data : quel impact sur le marketing et la relation client ?

Depuis des décennies, les marketeurs analysent les données clients à leur disposition, avec l’objectif de vendre plus et, éventuellement, mieux, c’est-à-dire pendant plus longtemps dans une logique de fidélisation. L’émergence récente du Big Data est venue décupler leur capacité d’analyse et, partant, leurs possibilités de réaction, voire d’anticipation des comportements de leurs clients. De fait, à l’instar de celle de Gartner, la plupart des études estiment qu’entre 50% et 60% des projets Big Data sont liés à l’expérience client au sens large.
Ainsi, en collectant des données lorsque ses clients sont exposés à ses campagnes de communication, achètent ses produits ou souscrivent à ses services, naviguent sur ses sites Web ou interagissent avec elle, une entreprise est à même de mieux les connaître. Elle peut ainsi adapter son offre, sa stratégie et ses outils de vente et de relation client, afin de faire vivre à ses clients une expérience en adéquation avec leurs attentes.
Une fois mise en place la fameuse vision à 360° de ses clients, l’entreprise est susceptible d’obtenir de « nombreux bénéfices marketing », « utiles pour les consommateurs » et « générant de la valeur », comme le montre l’infographie de l’agence Camp de Bases.

Capture

Selon notre analyse, reposant sur une étude Markess, trois grands types d’objectifs président aux actions des directions marketing en matière de Big Data:

  • Vendre plus, notamment en ligne, en personnalisant le parcours digital des clients, de leur navigation sur les sites aux messages publicitaires qui leur sont présentés, pour leur proposer les offres les plus adaptées grâce à une segmentation et à un ciblage plus fins ;
  • Vendre mieux en simplifiant la relation client, grâce à une stratégie adaptée à chaque canal d’interaction (téléphone, e-mail, SMS, Web, réseaux sociaux) et à une optimisation des parcours inter canaux ;
  • Anticiper, en analysant tendances lourdes et signaux faibles pour se préparer aux évolutions comportementales des clients, de façon collective avec, par exemple, de nouveaux produits ou services, ou de façon individualisée, avec notamment la prévention des risques de rupture de la relation client.

A des degrés divers, la majeure partie des secteurs d’activités sont susceptibles de recourir au Big Data pour améliorer l’expérience de leurs clients, mais les plus avancés restent le e-commerce et la grande distribution, les opérateurs de services et le secteur financier.

Amazon, premier de la classe en Big Data

Les entreprises nord-américaines, et en particulier les pure players du Web, ont indéniablement une bonne longueur d’avance en matière d’exploitation commerciale du Big Data. Amazon s’est très tôt positionné en pionnier, avec son service de recommandations personnalisées, système de frappes chirurgicales qui vient se substituer avec succès au bazooka du couponing massif. Le géant du e-commerce peut s’appuyer sur une base de plus de 250 millions de clients, dont il cerne les goûts de plus en plus précisément en compilant des données structurées (déclaratif et navigation) et non structurées (contenus qu’ils stockent dans ses services de cloud). Amazon est ainsi capable de fournir à ses clients, en ligne ou via des campagnes d’e-mailing, des conseils personnalisés en temps réel susceptibles de se transformer en autant de commandes. La firme de Jeff Bezos a d’ailleurs une telle confiance dans la qualité de sa connaissance client qu’elle a déposé, début 2014, un brevet pour un nouveau système de livraison fondé sur l’anticipation des achats ! Ce dernier repose sur un algorithme, élaboré d’après les achats précédents du client, sa liste de souhaits, sa navigation sur le site et les produits qu’il a mis dans son panier sans les acheter.

Par ailleurs, non content de s’appuyer sur sa connaissance client pour accroître ses ventes, Amazon réfléchit désormais à la meilleure façon de monétiser de façon directe la mine d’or que représente ses données très qualifiées. Annoncé à l’été 2014, le service de publicité en ligne Amazon Sponsored Links n’a pas encore officiellement vu le jour, mais il ne devrait pas tarder à venir concurrencer Google Adsense.

En France, on a des idées… mais on peine encore à les concrétiser

Si 81% des dirigeants marketing interrogés dans le cadre de l’étude menée en France fin 2014 par Fullsix et Limelight sont « convaincus de la grande importance » du Big Data, seuls 18% ont déjà lancé des projets et 6% les ont vus aboutir…

Toutefois, si les entreprises françaises ne versent pas dans une stratégie tout-Big Data à la Amazon, elles ne négligent pas ses apports pour répondre à des problématiques plus ponctuelles.

La grande distribution s’affiche en pionnière, avec des enseignes qui cherchent à collecter autant d’informations que possible concernant leurs clients, en magasin avec la fameuse « digitalisation » du point de vente, mais aussi sur le Web et en mobilité. On retrouve l’idée du « vendre plus » dans la stratégie de la Fnac, qui optimise le ciblage de ses campagnes d’e-mailing en s’appuyant sur un modèle prédictif mettant à profit les informations recueillies concernant ses 20 millions de clients. Mais la dimension de l’anticipation est également au cœur de l’action des distributeurs, à l’image d’Auchan, qui s’est doté d’une solution d’analyse sémantique décortiquant en temps réel les verbatim clients déposés sur ses sites Web et ses comptes Facebook et Twitter. En traitant ce volume important de données non structurées, le distributeur extrait rapidement des informations stratégiques pour y répondre par des actions opérationnelles ciblées.

Voyages-SNCF mise sur le « vendre mieux », notamment avec des applications mobiles qui permettent de personnaliser l’expérience des usagers en facilitant leurs voyages. En fonction de leurs profils, ils se voient relayer en temps réel des informations importantes et proposer des services sur mesure.

Les opérateurs télécoms investissent tout particulièrement dans l’analyse prédictive des données, pour faire baisser leurs taux de churn. Ainsi, en surveillant la navigation des internautes sur ses sites Web, SFR réussirait, selon des chiffres récemment dévoilés, à repérer plus de 80% des candidats au départ, les contactant avant qu’ils aient pris leur décision… semble-t-il avec succès, puisque l’opérateur réussirait à en convaincre 3/4 de lui rester fidèle.

Enfin, le Big Data a également beaucoup à apporter aux entreprises du secteur financier. En permettant aux banques d’analyser en quelques minutes des masses de données qui nécessitaient auparavant plusieurs jours de décryptage, les technologies Big Data leur ouvrent la perspective d’une relation client plus immédiate et plus personnalisée. Le secteur de l’assurance peut s’appuyer sur les modèles prédictifs associés au Big Data, pour anticiper les risques (notamment liés au climat), ou encore développer de nouveaux business models, en matière d’assurance santé ou d’assurance automobile, à l’instar des offres « pay-as-you-drive » notamment mises en place par Direct Assurance.

Mais, les usages du Big Data ne sont pas tous liés au marketing et à la relation client… La suite au prochain numéro.

Big Data : au commencement était la donnée

Et si on partait du point de départ ? Les données sont en effet ce qui donne un sens à la notion même de Big Data – ou mégadonnées, selon les recommandations linguistiques de la Délégation Générale à la Langue Française et aux Langues de France.

Selon la définition, faisant désormais autorité, énoncée par Gartner en 2012, les données du Big Data présentent trois caractéristiques majeures, que les nouvelles technologies de traitement de l’information permettent de prendre en compte : leur Volume, leur Variété et leur Vélocité. La littérature marketing y rajoute parfois 2 V complémentaires, la Véracité (la qualité et la fiabilité des données) et la Valeur (leur caractère monétisable).

De fait, depuis le début de l’ère numérique, le Volume de données existantes a connu une croissance exponentielle. Si cette notion peut être appréhendée plus aisément à travers des infographies comme celle de VoucherCloud, elle peut être résumée en quelques chiffres : il y a un peu plus de 10 ans, le trafic Internet était de l’ordre de 100Go de données échangées par seconde (soit autant qu’en un jour entier 10 ans auparavant). Aujourd’hui, nous avons dépassé les 30 000Go par seconde et nous devrions atteindre les 50 000Go d’ici à 2018. Conséquence de cette explosion des volumes, 90% des données aujourd’hui existantes datent de moins de 2 ans.

Big Data_données_image 1

Au-delà de l’augmentation du nombre d’utilisateurs de solutions IT et de la croissance des volumes opérationnels de données, c’est surtout la Variété de plus en plus grande des sources, liée à l’évolution des usages et des technologies de traitement de l’information, qui justifie cette croissance exponentielle. Hier, les données utilisables par les acteurs du monde socio-économique se limitaient à des informations hautement formatées. Aujourd’hui, le Big Data permet de traiter tout type de donnée, dans sa forme originelle, non structurée, multipliant ainsi les sources.
Les comportements en ligne – plus ou moins anonymes –, comme la navigation, la recherche et l’utilisation des outils de communication sont les premiers qui viennent à l’esprit. Les informations et comportements clairement identifiés sont eux aussi « trackés », à l’image de toutes les interactions en ligne avec les entreprises, telles que le remplissage de formulaires, les réactions à l’e-mailing, les objets et services achetés, les transactions financières, l’utilisation des coupons de fidélité, ou les échanges liés au SAV : tous les clients d’Amazon peuvent constater qu’aucun de leurs faits et gestes sur ses sites n’échappe au plus connu des e-commerçants. Ce qui change, c’est que toutes les entreprises s’y mettent, de façon parfois plus discrète mais pas moins intensive. N’oublions pas les réseaux sociaux, puisqu’il semblerait, selon une récente étude, que Facebook nous connaisse mieux que nos meilleurs amis. Les contenus, photos, vidéos, musique, articles de blogs, que nous créons, lisons, partageons et auxquels nous réagissons n’échappent pas non plus au Big Data. Et bien sûr, cela fonctionne aussi en mobilité, grâce à nos chers smartphones et autres tablettes, qui dévoilent par ailleurs des informations concernant notre usage des applications ainsi que nos données de géolocalisation.
C’était tout – et déjà beaucoup – jusqu’à l’émergence de l’Internet des Objets. Désormais, notre corps, « augmenté » par les « wearables » tels que les montres ou les bracelets connectés, peut révéler des informations concernant notre santé ou notre activité physique. De même, notre maison, équipée de solutions connectées relatives à la sécurité, à la gestion énergétique ou au simple confort peut en dire beaucoup sur nos habitudes, tout comme notre voiture, possiblement connectée elle aussi, au-delà du seul GPS. Nous voilà donc 100% connectés dans un environnement qui ne l’est pas moins et livre, en open data, ses propres informations, des statistiques démographiques et économiques aux données nécessaires au bon fonctionnement des services publics (transport, éducation, vie culturelle, etc.).

Big Data_données_image 2

Déjà évoquée dans ces colonnes, l’excellente web-série interactive Do Not Track fournit des illustrations assez édifiantes de la façon dont toutes nos données sont collectées.

Nombreuses et variées, ces données sont de plus en plus souvent exploitées en temps réel, justifiant le 3ème V, dédié à la Vélocité.

Il n’est pas étonnant que ces données en nombre infini, qui décrivent de plus en plus précisément nos comportements et leur évolution, soient désormais considérées comme le moteur principal de l’économie numérique. Le Web en témoigne d’ailleurs, filant généreusement les métaphores aurifère et pétrolifère. En offrant des opportunités d’analyse plus larges et plus fines, le Big Data ouvre de nouveaux horizons, non seulement au confort des utilisateurs, mais aussi à la prise de décision des entreprises et des organisations. Pour quels usages ? Avec quels intérêts et quels risques ? La suite au prochain numéro…

Approuvée par l’Assemblée Nationale, la Loi Renseignement fait toujours l’unanimité… contre elle

Depuis son annonce à la mi-mars jusqu’à son approbation ce 5 mai par l’Assemblée Nationale avec une très large majorité, le projet de loi relatif au renseignement a fait l’objet de nombreux débats entre ses partisans et ses détracteurs.
Pour mémoire, ce projet, né après l’attaque de Charlie Hebdo, entend donner plus de moyens aux services de renseignement : accès direct aux « réseaux des opérateurs » (télécoms, services en ligne, hébergeurs) pour surveiller une personne suspecte, utilisation d’outils comme les « IMSI Catchers » pour intercepter les appels téléphoniques des mobiles, installation de « boîtes noires » chez les acteurs du numérique pour repérer automatiquement les comportements à risque. L’utilisation de ces dispositifs de surveillance sera contrôlée par une autorité indépendante, la Commission nationale de contrôle (CNCTR).

Une telle perspective n’a pas semblé émouvoir plus que ça le grand public. Selon un sondage CSA, près de 2/3 des Français se disaient « favorables à une limitation de leurs libertés individuelles sur Internet au nom de la lutte contre le terrorisme ». Valérie Peugeot, vice-présidente du Conseil national du numérique, explique les raisons de cette apathie par un manque de sensibilisation (« il n’y a rien de plus difficile que de se rebeller contre l’invisible »). D’ailleurs, dans le même sondage CSA, moins de 30% des Français affirmaient connaître le contenu du projet…

En revanche, les acteurs et observateurs du monde numérique en analysent depuis plus d’un mois les tenants et les aboutissants, et leurs avis sont quasi unanimement hostiles à la Loi sur le Renseignement. Une phrase de la tribune libre rédigée par un collectif d’hébergeurs début avril résume l’ensemble de leurs récriminations : « Le projet de loi du gouvernement est non seulement liberticide, mais également anti-économique, et pour l’essentiel, inefficace par rapport à son objectif. »

Un projet liberticide adopté sans débat démocratique

L’argument relatif à la violation des libertés individuelles est le plus soulevé. Dès l’annonce du projet, le Conseil national du numérique s’est inquiété « d’une extension du champ de la surveillance », invitant le gouvernement « à renforcer les garanties et les moyens du contrôle démocratique ». De leur côté, le commissaire aux droits de l’homme du Conseil de l’Europe Nils Muižnieks, et les rapporteurs des Nations Unies sur les droits de l’homme Michel Forst et Ben Emmerson ont cosigné une tribune libre critiquant ce projet, « parce qu’il autorise le recours à des méthodes de surveillance qui font peser une menace sérieuse sur le droit au respect de la vie privée », « parce qu’il permet la mise en œuvre de ces mesures intrusives sans un contrôle préalable indépendant », et « parce qu’il pourrait aggraver les tensions sociales en autorisant un contrôle indiscriminé de personnes qui ne sont pas soupçonnées d’activité terroriste ». Par la voix de sa présidente Isabelle Falque-Pierrotin, la CNIL s’est, pour sa part, déclarée préoccupée par la question du devenir des données collectées.

Le son de cloche est le même du côté des intellectuels. Pour le philosophe et écrivain Eric Sadin, « Cette loi est répréhensible. C’est une faute, c’est une faute politique, c’est une faute sociétale, c’est une faute éthique et c’est une faute juridique, ça fait beaucoup ! ». Antoinette Rouvroy, chercheuse au Fonds de la Recherche Scientifique belge, qualifie ce projet de « fantasme de maîtrise de la potentialité », reposant sur « l’idée que grâce au calcul, grâce à l’analyse des données en quantité massive, grâce au big data, on va pouvoir vivre dans un monde non-dangereux ».

« Etonné et inquiété » par cette loi, l’historien et sociologue Pierre Rosanvallon estime, pour sa part, qu’elle a été « très mal préparée et très mal écrite » et qu’elle n’a « aucune colonne vertébrale ». Enfin, figurant au rang des premiers et des plus farouches opposants à la Loi Renseignement, La Quadrature du Net dénonce, au-delà du contenu du projet en lui-même, la rapidité avec laquelle il est mis en place, et cela sans débat démocratique.

Le recours au big data inadapté à la lutte contre le terrorisme ?

Comme d’autres observateurs, Grégoire Chamayou, chargé de recherche au CNRS, conteste l’efficacité d’un recours au big data à des fins de surveillance : « Contre les attentats de demain, croire que les scénarios de ceux d’hier seront utiles, c’est comme chercher une aiguille dans une botte de foin, alors que la couleur et la forme de l’aiguille ne cessent de changer. Même à supposer que le terrorisme présente des signatures repérables par data mining – ce qui est pour le moins hasardeux –, pareil système va engendrer pléthore de suspects, dont une écrasante majorité de fausses pistes – et ceci par millions. »

Jean-Marie Delarue, Président de la Commission nationale de contrôle des interceptions de sécurité (CNCIS) ne dit pas autre chose, goûtant peu les « techniques évidentes de pêche au chalut » induites par ce projet. Il craint par ailleurs que la CNCTR ne soit qu’un « colosse aux pieds d’argile, un contrôleur dépendant d’un tiers pour accéder aux données qu’il est chargé de contrôler ». Selon lui, plus qu’un renforcement, « il y a donc un affaiblissement très net du contrôle ».

Un risque d’affaiblissement économique des acteurs du numérique français

Concernés au premier chef par la mesure des « boîtes noires », les hébergeurs français y ont vu une menace directe de leurs intérêts : « En tout, 30 à 40 % de notre chiffre d’affaire est réalisé » avec des clients étrangers qui « viennent parce qu’il n’y a pas de Patriot Act en France, que la protection des données des entreprises et des personnes est considérée comme importante. Si cela n’est plus le cas demain en raison de ces fameuses boîtes noires, il leur faudra entre 10 minutes et quelques jours pour quitter leur hébergeur français ». Les hébergeurs craignent par ailleurs de voir les entreprises françaises les quitter pour l’étranger : « ce sont des milliers d’emplois induits par le cloud computing, le big data, les objets connectés ou la ville intelligente que les start-ups et les grandes entreprises iront créer ailleurs ».

Face à la menace des hébergeurs de « déménager leurs infrastructures, investissements et salariés là où leurs clients voudront travailler avec eux », le gouvernement n’a pas tardé à réagir et à leur proposer l’amendement n°437. Il leur permet de faire eux-mêmes la distinction entre les données de connexion, que les services de renseignement pourront consulter sous réserve d’une validation préalable par la CNCTR, et les contenus, qui resteront privés. Cet amendement semble avoir satisfait les hébergeurs, même si Valentin Lacambre, pionnier de la liberté d’expression sur Internet, a décidé de fermer son service Altern.org, affirmant : « Pour nous, un seul jour sous écoute globale est un jour de trop ».

 

Quoi qu’il en soit, malgré les centaines de signatures des acteurs du numérique sur la Pétition NiPigeonsNiEspions, la Loi Renseignement a désormais été adoptée par l’Assemblée Nationale. Voyons maintenant quel sera l’avis du Conseil Constitutionnel, que François Hollande s’est engagé à saisir.

Les opérateurs télécoms en 5 graphiques : actualisation avec les données 2013

Comme chaque année, nous actualisons les graphiques qui permettent d’appréhender, de manière synthétique, les principaux indicateurs clefs des opérateurs de télécommunications en France.

Vous pouvez également retrouver nos analyses des données 2008, 2010, 2011 et 2012.

Ces indicateurs proviennent de l’Observatoire des marchés consolidé par l’Arcep, régulateur français des télécoms, les chiffres étant tirés des séries annuelles depuis 1998, dont nous intégrons les actualisations rétroactives dans nos graphiques. Nous les complétons par l’analyse des données présentées par Orange dans son document de référence 2013.

Ils ne concernent que les opérateurs de télécommunications, hors activité des autres acteurs de la filière, et le marché français.

Les revenus des opérateurs atteignent leur plus bas niveau depuis 10 ans

… tandis que le nombre d’utilisateurs et le trafic ne cessent d’augmenter. Ce sont les services mobiles, engagés dans une spirale « low-cost » depuis l’arrivée de Free Mobile, qui tirent le marché vers le bas (-14% en 2013 vs. -7% pour l’ensemble du marché). Pour la première fois depuis 2005, les revenus du fixe dépassent même ceux du mobile, dont les clients choisissent logiquement les offres toujours moins onéreuses (27% de baisse moyenne des prix en 2013) qui leur sont proposées.

2013_revenusPour pouvoir supporter cette baisse de revenus, les opérateurs poursuivent leur politique de rationalisation des coûts à outrance. Et comme ils doivent continuer à assurer la qualité du service et à développer leurs réseaux, ce sont les salaires et les emplois qui pâtissent de cette stratégie.

Orange entre dans une nouvelle phase de réduction d’effectifs, entraînant vers le bas les statistiques d’emploi du secteur

2013_emploisDe façon logique, la courbe globale d’évolution des emplois suit de près les fluctuations de celle d’Orange, qui représente encore 82% des effectifs du secteur. Les accords d’embauche, négociés en 2009 par les organisations syndicales auprès de la direction de l’opérateur historique dans le cadre du « nouveau contrat social », ont pris fin en 2012. Aussi, et comme nous l’avions prévu, les suppressions d’emplois ont repris en 2013 (-2,8%), entraînant l’ensemble du marché (-3,1%), également impacté par les plans sociaux de SFR et Bouygues Télécom. Cette tendance à la baisse devrait malheureusement se confirmer sur les années à venir.

2013_emplois OrangeEn effet, la Direction d’Orange table sur la suppression de 7 000 emplois entre 2013 et 2015. Les 4 000 embauches annoncées sur la période (1 250 en 2013) ne compenseront pas les 11 000 départs (dont 9 000 retraites, un tiers ayant eu lieu en 2013). Considérée pendant de nombreuses années comme un handicap, la pyramide des âges de l’entreprise s’avère désormais un outil précieux permettant de faire baisser les effectifs sans plan social. Le mouvement devrait s’amplifier dans des proportions encore jamais connues dans l’entreprise : Orange anticipe 30 000 départs en retraite d’ici à 2020, dont une grande partie ne sera pas remplacée.

Alors que les conditions de travail ne se trouvent évidemment pas améliorées par ces réductions d’effectifs, les salaires n’évoluent que très peu. Alors que leur augmentation s’était limitée à 2,5% en 2012, elle a été encore moindre en 2013, avec seulement 2,1% de croissance (voir la présentation des résultats 2013, page 24). D’ailleurs, pour la première fois dans l’histoire de l’entreprise, la masse salariale est en baisse.

Ainsi, mis sous pression par ses concurrents, l’opérateur historique fait porter à ses salariés une bonne partie de son effort de rationalisation des coûts, contribuant à une baisse de pouvoir d’achat en pleine période de crise économique.

2013_emplois alternatifsLa situation n’est pas meilleure, loin s’en faut, du côté des opérateurs alternatifs, responsables de la destruction de plus de 1000 emplois en 2013. SFR et Bouygues Télécom, qui ont mis en place des plans sociaux, ont ainsi supprimé plus de 550 emplois chacun.

Les investissements hors achats de licences se maintiennent

2013_investissementsEn 2012, le montant des investissements des opérateurs avait atteint un niveau record, dopé par les achats de licences 4G, qui représentaient le quart des plus de 10 milliards d’euros investis. En 2013, les opérateurs n’ont réalisé quasiment aucune dépense d’achat de licence et leurs investissements, limités aux infrastructures, sont revenus à un niveau plus « normal » de 7,25 milliards d’euros.