Archive pour le Tag 'technologies'

Technologies- Numérique : la France en retard ( Euler Hermes)

Technologies- Numérique : la France en retard ( Euler Hermes)

L’indice «d’agilité digitale» de l’assureur-crédit Euler Hermes situe la France en 15ème position, un léger progrès par rapport au classement précédent. La Chine bondit à la 4ème place.

D’après les indicateurs d’Euler Hermes ( filiale d’Allianz)  qui classe les performances numériques de chaque État, la France est en retard derrière les très grandes puissances. La France en quinzième position mais loin  derrière les États-Unis toujours premiers de la classe ou la Chine qui fait un grand bond par rapport au classement de fin 2018 et se retrouve en quatrième position. Loin également derrière l’Allemagne en légère perte de vitesse à la 3ème place, le Danemark (2ème) ou encore la Corée du Sud (12ème).

Cet indicateur « nous permet de savoir quel pays offre les meilleures conditions aux entreprises traditionnelles pour réussir leur digitalisation et le meilleur environnement aux entreprises digitales pour se développer», explique Alexis Garatti, directeur des recherches économiques d’Euler Hermes.

Les États-Unis dominent avec un score de 88/100. Ils bénéficient d’un vaste marché, d’un système éducatif et de dispositifs de recherches solides, ainsi que d’un environnement des affaires et une réglementation favorables au développement numérique. La Chine (73/100) est le pays qui progresse le plus, passant de la 9ème à la 4ème position. Pékin s’appuie en particulier sur ses progrès dans la réglementation et le climat des affaires ainsi que dans les infrastructures logistiques et le système éducatif. Et l’ensemble de la région Asie-Pacifique est bien loti.

En Europe, le Danemark (77/100) devance l’Allemagne, ralentie par «une connectivité qui a progressé moins vite» qu’ailleurs. De son côté, la France (67/100) gagne deux places tout en demeurant un élève médiocre.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Sciences technologies – Un ordinateur quantique ?

Sciences technologies – Un ordinateur quantique ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Pour un écosystème français des technologies quantiques

Pour un écosystème français des technologies quantiques 

Quatre expert(e) s de l’innovation technologique et de son financement appellent, dans une tribune au « Monde », les entreprises françaises à ne pas passer à côté du quantique, prochaine révolution dans le domaine de l’informatique et des communications (extraits)

Tribune.

 

Nous sommes à l’aube d’une révolution technologique. Issue des découvertes de la physique quantique, la possibilité de manipuler des particules élémentaires (électrons, ions, atomes, photons) ouvre la voie à des ruptures dans des domaines tels que l’informatique, les communications, la métrologie ou la cybersécurité. Le cabinet de conseil en stratégie BCG a identifié une trentaine de cas d’usage, et une création de valeur comprise entre 25 et 50 milliards d’euros à horizon 2030.

Les géants du numérique, Google et IBM en tête, mettent au point des prototypes de calculateurs quantiques de plus en plus puissants. Cette course aux technologies quantiques mobilise aussi les gouvernements, à commencer par ceux de la Chine et des Etats-Unis. Le Royaume-Uni et l’Allemagne ont initié une stratégie nationale il y a déjà plusieurs années.


Et la France ? L’année 2020 a débuté par la remise du rapport de la députée Paula Forteza (Français de l’étranger, ex-LRM), et aurait dû s’achever par l’annonce d’un plan stratégique (« Quantique : le virage technologique que la France ne ratera pas »). La crise sanitaire a retardé son lancement, désormais attendu pour les premiers mois de 2021. Il y a pourtant urgence, car sans un engagement fort et rapide de l’Etat pour affirmer ses ambitions académiques, industrielles et économiques, la France ne pourra pas rattraper son retard.

Exception

Au-delà de ce plan, notre pays doit absolument construire un écosystème des technologies quantiques. Nous en possédons déjà plusieurs briques indispensables. Une recherche de très haut niveau, tout d’abord, autour de trois pôles situés à Paris, Saclay et Grenoble. Un portefeuille de start-up de grande qualité, ensuite, comme Pasqal, Qubit Pharmaceuticals, Alice & Bob, C12, Quandela, Cryptonext ou VeriQloud.

Des structures d’investissement, enfin, qu’elles soient publiques, avec le plan Deeptech de Bpifrance, ou privées, avec Quantonation, pionnier dans le financement en amorçage de ces technologies. Cet écosystème naissant commence à se structurer, notamment autour du think tank Le Lab quantique, créé en 2018 pour associer start-up, industriels, PME et ETI. La région Ile-de-France soutient à travers lui une approche originale, le « Pack quantique », pour développer les cas d’usage.

Mais le tableau est encore incomplet. Un point doit concentrer toutes les attentions : la plupart de nos grandes entreprises n’ont pas pris conscience de cette révolution. Une poignée de groupes industriels de premier plan ont commencé à se mobiliser, à l’image d’Atos, Thales, Orange, Air Liquide ou Airbus, mais ils demeurent l’exception quand ils devraient être la règle.

Nouvelles technologies Ordinateur quantique : Pour quand ?

Nouvelles technologies

Ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

 

La chaussure connectée devient elle aussi en quelque sorte intelligente grâce au capteur qu’elle contient. Une évolution qui n’est peut-être pas totalement sans intérêt ; reste cependant à définir son espace de marché réel. Aujourd’hui de toute façon la mode est au tout connecté, les vêtements y compris. Alors à quand aussi le slip connecté pour vérifier l’état de santé de l’intimité des individus, peut-être pour attribuer une note et des alertes en cas de trop fortes dispersions par rapport à la moyenne.

 

Il y a là sans doute un sens possible de développement technologique et économique ! Grâce à un capteur de mouvement, un giroscope et un accéléromètre situés dans le talon de la chaussure et à une communication Bluetooth reliée au smartphone de la personne, le modèle est capable de détecter une chute, de géolocaliser la zone du porteur de chaussures, d’envoyer une alerte aux contacts d’urgence… Un condensé de technologies réduit à 30 grammes, équipé d’une pile bouton à changer tous les trois mois pour des chaussures dont l’espérance de vie est d’un an.

 « En France, on estime le nombre de travailleurs isolés à 1,5 million et une chute grave se produit toutes les 7 minutes en moyenne. C’est la troisième cause d’accident du travail, et jusqu’ici les outils existants étaient peu satisfaisants », explique Franck Cherel, alerté par ses clients en 2015 de cette situation. « A l’époque, c’était le démarrage des objets connectés alors nous nous sommes demandé ce qu’il était possible d’en faire dans le domaine de la sécurité.»

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Technologies-Quel intérêt de la 5G ?

Technologies-Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

Nouvelles technologies- Quel intérêt de la 5G ?

Nouvelles technologies- Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

 

Nouvelles technologies-L’avenir: la zéro G

Nouvelles technologies-L’avenir: la zéro G

Le patron de Sigfox, Ludovic Le Moan dans un entretien accordé à La Tribune dit tout le mal qu’il pense de la 5G et explique ce que serait la zéro G.

 

Pourquoi avoir publié votre livre intitulé « Zéro G » en ce début d’année, alors que l’actualité des télécommunications en 2020 est accaparée par l’émergence de la 5G ? Quel message avez-vous voulu faire passer à travers celui-ci ?

Ludovic Le Moan - J’ai voulu écrire ce livre et le nommer de cette façon non pas en prétendant que c’est l’opposé de la 5G. Pour moi, cette technologie consiste à permettre d’avoir plus de capacité haut débit dans des lieux où il y a beaucoup de monde, c’est cela ma définition de la 5G, le reste n’est que de la foutaise. Je ne dis pas qu’il ne faut pas de 5G, mais à l’opposé du spectre, il y a des besoins de frugalité et dans mon livre, je démontre que la zéro G c’est la frugalité. Le secteur des télécommunications pourrait être un domaine de réflexion pour continuer à progresser sans pour autant pousser les curseurs dans le rouge. Je ne suis pas dans la décroissance joyeuse, mais l’idée est d’instaurer une réflexion frugale dans le développement de l’économie.

La zéro G peut être un moyen d’apporter un progrès social, environnemental et dans la souveraineté. Ce dernier aspect est la plus grande menace que la France peut avoir. Si nous laissons quelques années, quand on observe la puissance des GAFA et des Chinois, nous ne sommes pas très loin de devenir demain dépendants de ces deux forces-là. Plus que gagner de l’argent, je démontre comment on peut faire pour avoir une alternative.

Vous venez de l’aborder : ce terme de  »frugalité » revient des dizaines de fois au cours des 170 pages de votre ouvrage. Est-ce un choix volontaire et assumé ? Pourquoi cette insistance ?

La frugalité et la zéro G, pour moi, c’est ni plus ni moins qu’adapter les moyens aux besoins. Ma priorité est celle-ci : répondre à un besoin par le bon moyen. Quand on dit qu’il faut la 5G pour tout le monde, honnêtement je ne suis pas d’accord. Alors que la Terre brûle, je ne me casse pas la tête, après la 4, je fais la 5 en mettant plus de débit parce que cela se vend bien. Les consommateurs mangent cela en achetant les derniers smartphones et écrans. Cela fonctionne depuis la nuit des temps, avec un marketing de plus en plus puissant. Est-ce que c’est que nous voulons ? Pour moi, la réponse est non.

Nous pouvons créer des choses utiles dans le domaine de la santé par exemple, issues d’une réflexion profonde. la zéro G, ,  un réseau mondial bas débit, qui ne consomme quasiment pas d’énergie … »

Faut il croire en la 0G? d’après wi6labs.com/

Regardez tout autour de vous. Je suis quasiment sûr que vous n’allez pas mettre beaucoup de temps à trouver une antenne dédiée à la téléphonie mobile. Cette technologie qui vous oblige à avoir un abonnement et une carte SIM  nécessite d’avoir un grand nombre d’antennes pour pouvoir couvrir le réseau. On peut donc douter que les infrastructures de téléphonie mobile puissent un jour équiper les réseaux de millions de capteurs.

Les alternatives:

Le réseau maillé consiste à avoir une série de capteurs qui, s’écoutant les uns les autres, peuvent faire passer les messages d’un voisin vers l’autre. Le but du jeu est de joindre un point A à un point B en passant par le chemin le plus court ou le plus rapide. Ces réseaux peuvent être performants mais sont énergivores car ils nécessitent une écoute quasi permanente du réseau par les capteurs. (Réseau mesh). Des travaux sont tout de même à l’étude pour améliorer les performances, notamment énergétiques (6Tisch et 802.15.5)

Le réseau en étoile via la 0G (versus 2G, 3G ou 4G) fait le pari que nous pouvons faire autrement pour gérer les réseaux de capteurs. La technologie Long Range offre de bonnes performances en terme de portée et permet donc de pouvoir utiliser des réseaux de type étoile.(Réseau Etoile). Seul un récepteur est à l’écoute de sa tribu de capteurs. De cette manière le capteur ne se réveille que lorsqu’il est nécessaire de le faire, simplement si une information est à transmettre.

.

Nouvelles technologies–L’avenir: la zéro G ?

Nouvelles technologies–L’avenir: la zéro G

Le patron de Sigfox, Ludovic Le Moan dans un entretien accordé à La Tribune dit tout le mal qu’il pense de la 5G et explique ce que serait la zéro G.

 

Pourquoi avoir publié votre livre intitulé « Zéro G » en ce début d’année, alors que l’actualité des télécommunications en 2020 est accaparée par l’émergence de la 5G ? Quel message avez-vous voulu faire passer à travers celui-ci ?

Ludovic Le Moan - J’ai voulu écrire ce livre et le nommer de cette façon non pas en prétendant que c’est l’opposé de la 5G. Pour moi, cette technologie consiste à permettre d’avoir plus de capacité haut débit dans des lieux où il y a beaucoup de monde, c’est cela ma définition de la 5G, le reste n’est que de la foutaise. Je ne dis pas qu’il ne faut pas de 5G, mais à l’opposé du spectre, il y a des besoins de frugalité et dans mon livre, je démontre que la zéro G c’est la frugalité. Le secteur des télécommunications pourrait être un domaine de réflexion pour continuer à progresser sans pour autant pousser les curseurs dans le rouge. Je ne suis pas dans la décroissance joyeuse, mais l’idée est d’instaurer une réflexion frugale dans le développement de l’économie.

La zéro G peut être un moyen d’apporter un progrès social, environnemental et dans la souveraineté. Ce dernier aspect est la plus grande menace que la France peut avoir. Si nous laissons quelques années, quand on observe la puissance des GAFA et des Chinois, nous ne sommes pas très loin de devenir demain dépendants de ces deux forces-là. Plus que gagner de l’argent, je démontre comment on peut faire pour avoir une alternative.

Vous venez de l’aborder : ce terme de  »frugalité » revient des dizaines de fois au cours des 170 pages de votre ouvrage. Est-ce un choix volontaire et assumé ? Pourquoi cette insistance ?

La frugalité et la zéro G, pour moi, c’est ni plus ni moins qu’adapter les moyens aux besoins. Ma priorité est celle-ci : répondre à un besoin par le bon moyen. Quand on dit qu’il faut la 5G pour tout le monde, honnêtement je ne suis pas d’accord. Alors que la Terre brûle, je ne me casse pas la tête, après la 4, je fais la 5 en mettant plus de débit parce que cela se vend bien. Les consommateurs mangent cela en achetant les derniers smartphones et écrans. Cela fonctionne depuis la nuit des temps, avec un marketing de plus en plus puissant. Est-ce que c’est que nous voulons ? Pour moi, la réponse est non.

Nous pouvons créer des choses utiles dans le domaine de la santé par exemple, issues d’une réflexion profonde. la zéro G, ,  un réseau mondial bas débit, qui ne consomme quasiment pas d’énergie … »

Faut il croire en la 0G? d’après wi6labs.com/

Regardez tout autour de vous. Je suis quasiment sûr que vous n’allez pas mettre beaucoup de temps à trouver une antenne dédiée à la téléphonie mobile. Cette technologie qui vous oblige à avoir un abonnement et une carte SIM  nécessite d’avoir un grand nombre d’antennes pour pouvoir couvrir le réseau. On peut donc douter que les infrastructures de téléphonie mobile puissent un jour équiper les réseaux de millions de capteurs.

Les alternatives:

Le réseau maillé consiste à avoir une série de capteurs qui, s’écoutant les uns les autres, peuvent faire passer les messages d’un voisin vers l’autre. Le but du jeu est de joindre un point A à un point B en passant par le chemin le plus court ou le plus rapide. Ces réseaux peuvent être performants mais sont énergivores car ils nécessitent une écoute quasi permanente du réseau par les capteurs. (Réseau mesh). Des travaux sont tout de même à l’étude pour améliorer les performances, notamment énergétiques (6Tisch et 802.15.5)

Le réseau en étoile via la 0G (versus 2G, 3G ou 4G) fait le pari que nous pouvons faire autrement pour gérer les réseaux de capteurs. La technologie Long Range offre de bonnes performances en terme de portée et permet donc de pouvoir utiliser des réseaux de type étoile.(Réseau Etoile). Seul un récepteur est à l’écoute de sa tribu de capteurs. De cette manière le capteur ne se réveille que lorsqu’il est nécessaire de le faire, simplement si une information est à transmettre.

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

Nouvelles Technologies: : lancement de plus de 3 000 satellites par Amazon

Nouvelles Technologies: : lancement de plus de 3 000 satellites par Amazon

 

Un projet pharaonique d’Amazon qui pourrait accélérer la domination américaine dans le numérique et rendre caduques des projets comme le câble ou la 5G dans le mobile.  Avec le lancement de 3000 satellites, le projet d’Amazon visera les  Etats-Unis, puis dans le monde entier, et pourrait alimenter des réseaux sans-fils et 5G. Le projet ciblera en priorité les foyers, ainsi que les écoles, hôpitaux, entreprises et d’autres organisations, et pourra rétablir les télécommunications en cas de catastrophe naturelle. Plusieurs entreprises se sont déjà positionnés sur le créneau de l’internet depuis l’espace.

Une constellation. Amazon a obtenu l’approbation des autorités américaines pour déployer une constellation de 3 236 satellites en orbite basse, afin de fournir de l’internet à haut débit partout dans le monde. Le géant du commerce en ligne va investir 10 milliards de dollars dans ce projet baptisé Project Kuiper, a-t-il annoncé.

 

« Nous avons entendu tellement d’histoires récemment sur les personnes qui ne peuvent pas travailler ou étudier parce qu’ils n’ont pas d’internet fiable à la maison », a déclaré Dave Limp, vice-président d’Amazon.  »Kuiper va changer cette situation. Nos 10 milliards d’investissements vont créer des emplois et les infrastructures américaines vont nous aider à combler le fossé », a-t-il estimé.

Ces annonces interviennent alors que le mastodonte SpaceX du milliardaire américain Elon Musk a déjà déployé la constellation Starlink, qui compte quelque 300 satellites en orbite et ambitionne d’en lancer jusqu’à 42 000. En Europe, le gouvernement britannique, associé au conglomérat indien Bharti, a été choisi comme repreneur de l’opérateur de satellites en faillite Oneweb, qui porte un projet similaire.

 

Technologies numériques – L’enjeu de la dépendance

Technologies numériques – L’enjeu de la dépendance

 

Charles Cuvelliez, Ecole Polytechnique de Bruxelles, université de Bruxelles, et Jean-Jacques Quisquater, Ecole Polytechnique de Louvain, université de Louvain insiste sur l’enjeu de la dépendance numérique dans la directive européenne

 

« C’est une directive qui avait fait parler d’elle à l’époque et qui est remise sur le métier : la directive NIS (Network Information Security). C’était la première directive de cybersécurité à l’échelle de l’Union européenne. Elle s’appliquait aux industries critiques des Etats membres : énergie, transport, banques, marché, santé, distribution d’eau mais aussi, sur internet, les places de marché, les outils de recherche sur le net et les clouds. Cette directive oblige les entités qui lui sont soumises à rapporter les incidents de sécurité majeurs (mais n’est-ce pas déjà alors trop tard ?) aux autorités de chaque pays. Bien avant l’échéance prévue, la Commission a décidé d’ouvrir une consultation, visiblement, lit-on entre les lignes, pour renforcer sa portée et ses effets : le Covid-19 est passé par là et a montré encore plus notre dépendance numérique extrême face à un évènement qui n’a rien de digital.

Cette consultation vise, c’est clair, les problèmes rencontrés par la mise en pratique de cette directive. Le principal est la manière dont chaque Etat membre a décidé d’identifier ses opérateurs de services essentiels, ceux qui, au sein de chaque industrie, tombent sous les obligations de cette directive. Autre problème : ces opérateurs sont obligés, Etat membre par Etat membre, de suivre des obligations parfois divergentes en termes de sécurité et de rapportage des incidents. Pour les entreprises actives sur un ou plusieurs Etats, cela vire au cauchemar. Trop de liberté sur les critères de désignation n’a-t-elle pas été laissée aux Etats nationaux?

La Commission a trois options en tête, dans sa consultation :

-  Harmoniser l’identification des opérateurs de services essentiels mais sous forme légère, de lignes directrices et recommandations, sans plus.

-  Imposer cette harmonisation et les règles à appliquer tout en étendant la portée de la directive à d’autres acteurs et ce, en clarifiant par endroits la directive (en espérant que cela donne moins de marges de manœuvre aux Etats membres).

-  Remplacer cette directive par un autre régime plus contraignant avec des règles précises, détaillées, toujours en élargissant les secteurs soumis à la directive.

Parcourons la consultation. La première question vise les objectifs de la directive : améliorer les cyber-capacités des Etats membres, augmenter la coopération et promouvoir une culture de sécurité à travers tous les secteurs vitaux pour l’économie et la société et ce, au niveau européen. La directive a-t-elle bien eu comme valeur ajoutée d’apporter des règles plus efficaces à un niveau européen sachant que les cyberattaques ne connaissent pas de frontières ? Plus intéressant sont les secteurs additionnels auquel la Commission pense pour étendre cette directive : les administrations publiques (jusqu’à quel niveau, local, préfecture, national ?), l’alimentation (distribution : on a vu son importance pendant le Covid-19), le secteur manufacturier, la chimie, le traitement des eaux, les réseaux sociaux (en quoi est-il essentiel, entre nous ?) et les data centers (dont beaucoup d’entreprises en attente d’une migration vers le cloud dépendent encore).

La question est aussi posée pour rapporter plus que les incidents sérieux de sécurité (ceux qui ont eu un impact sur la sécurité). Faut-il aller plus loin, faut-il rapporter aussi les tentatives chez l’un mais qui pourraient réussir chez un autre ? Il suffit de voir comme un rançongiciel peut frapper plusieurs entreprises en même temps, comme la vague qui a atteint MMA entre autres. La Commission se demande aussi si le partage des informations sur des incidents qui ont un impact sur la continuité des services essentiels fonctionne bien entre Etats membres via les CSIRT (Computer Security Incident Response Team). Et si les CSIRT remplissent leur autre rôle d’apporter un support technique lors d’un incident, comme le fait si bien l’ANSSI. Vu l’importance grandissante de l’ICT et de l’internet, faut-il inclure d’autres secteurs et sous-secteurs et faut-il diminuer le seuil de notification des incidents ?

La Commission est aussi préoccupée que les petites et moyennes entreprises sont laissées en dehors du champ de la directive. On le comprend : ce sont les talons d’Achille. Les attaques peuvent commencer par ces entités et se propager vers les plus grandes entreprises qu’elles fournissent et auxquelles elles sont interconnectées. Un effort énorme de sensibilisation et de formations est ici nécessaire.

 

Les opérateurs de services essentiels purement IT (place de marché, moteurs de recherche, clouds) ne sont pas soumis à une régulation ex-ante mais ex-post de la part des Etats membres. Ces derniers ne peuvent vérifier que ces fournisseurs de services numériques essentiels ne remplissent leurs obligations qu’après coup. N’est-ce pas un traitement trop favorable ? La justification est que ces fournisseurs sont forcément actifs sur plusieurs pays et il y aurait cacophonie si chaque Etat membre voulait imposer ses propres règles.

Quand notifier ?

La notification des incidents est-elle efficace se demande ensuite la Commission : les entreprises ont -elles une bonne compréhension de ce qu’est un incident et quand il doit être rapporté ? Est-ce que les critères et les seuils ne diffèrent-ils pas trop par Etat membre? Les Etats membres arrivent-ils à imposer la directive dans les faits ?

Les forums d’échange d’information entre Etats membres sont-ils suffisants via le réseau des CSIRT et le groupe de coopération ? Enfin, la cohérence entre la directive NIS et les autres instruments de l’Union européenne en la matière ne se contredisent-ils pas ? Il y a aussi des forums tels que les PPP et les Sectorial Information Sharing and Analysis Centres (ISACs) qui remplissent déjà ce rôle.

Plus subtil est le partage des vulnérabilités qu’un fabricant de produits ou de services ICT pourrait s’engager à faire et le fait déjà souvent : cela ne serait-il pas plus efficace car ce serait avant même qu’un hacker ne pense à en faire un vecteur d’attaque ? Certains Etats membres ont mis en place, note la Commission, une politique de partage de telles vulnérabilités. Elle songe à l’inclure dans la directive ?

La consultation est ouverte jusqu’au 2 octobre 2020. Elle n’aborde bizarrement pas l’IoT. On sait que la Commission vise aussi à mesurer l’efficacité de chaque Etat membre sur les ressources dédicacées en cyber sécurité et la capacité de mitiger la croissance des menaces de sécurité. La directive devait être transposée pour le 9 mai 2018. Le manque de transposition avait compliqué les tentatives d’harmonisation et la supervision des fournisseurs de services essentiels numériques. Ils étaient notifiés dans le pays où se trouvait le quartier général. Si ce pays trainait dans la transposition, cet opérateur n’avait aucune obligation.

On comprend fort bien que la Commission a décidé de rattraper le retard. Mais ne faut-il dès maintenant imaginer une autre nouvelle version ? C’est l’option 3.

Technologies- Internet haut débit : lancement de plus de 3 000 satellites par Amazon

Technologies-  Internet haut débit : lancement de plus de 3 000 satellites par Amazon

 

Avec le lancement de 3000 satellites, le projet d’Amazon visera les  Etats-Unis, puis dans le monde entier, et pourrait alimenter des réseaux sans-fils et 5G. Le projet ciblera en priorité les foyers, ainsi que les écoles, hôpitaux, entreprises et d’autres organisations, et pourra rétablir les télécommunications en cas de catastrophe naturelle. Plusieurs entreprises se sont déjà positionnés sur le créneau de l’internet depuis l’espace.

Une constellation. Amazon a obtenu l’approbation des autorités américaines pour déployer une constellation de 3 236 satellites en orbite basse, afin de fournir de l’internet à haut débit partout dans le monde. Le géant du commerce en ligne va investir 10 milliards de dollars dans ce projet baptisé Project Kuiper, a-t-il annoncé, jeudi 30 juillet, lors de la publication de très bons résultats trimestriels.

 

« Nous avons entendu tellement d’histoires récemment sur les personnes qui ne peuvent pas travailler ou étudier parce qu’ils n’ont pas d’internet fiable à la maison », a déclaré Dave Limp, vice-président d’Amazon.  »Kuiper va changer cette situation. Nos 10 milliards d’investissements vont créer des emplois et les infrastructures américaines vont nous aider à combler le fossé », a-t-il estimé.

Ces annonces interviennent alors que le mastodonte SpaceX du milliardaire américain Elon Musk a déjà déployé la constellation Starlink, qui compte quelque 300 satellites en orbite et ambitionne d’en lancer jusqu’à 42 000. En Europe, le gouvernement britannique, associé au conglomérat indien Bharti, a été choisi comme repreneur de l’opérateur de satellites en faillite Oneweb, qui porte un projet similaire.

 

Nouvelles technologies (5G, internet, console etc.): la menace d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.): la menace d’un contrôle social généralisé

 

Les récents aveux de Facebook devant le congrès américain concernant le suivi permanent de ces utilisateurs autant que le système d’évaluation de chaque chinois par le régime communiste permet de nourrir des interrogations sur la menace d’un contrôle social généralisé. On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense.  Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter le comportement citoyen tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun ,les déplacements, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

 

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients . Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger;  si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

 

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Nouvelles technologies: la menace d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.): la menace d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense.  Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter le comportement citoyen tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun ,les déplacements, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients . Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger;  si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

Nouvelles technologies: Le risque de dérives anti démocratiques

 

Nouvelles technologies: Le risque de dérives anti démocratiques

Les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Une note sociétale est attribuée à chaque chinois par le pouvoir central.   Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les Chinois ont bâtis un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés  sans même qu’ils en soient très confiants. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers l’évolution des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas contrôlées de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

Le risque d’un contrôle social généralisé par les nouvelles technologies

 

Le risque d’un contrôle social généralisé par les nouvelles technologies  

Les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Chaque chinois  est suivi et noté ! Grâce aux nouveaux outils technologiques, la Chine développe des systèmes très  sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois disposent d’un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs  à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger. Si  les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol