Archive pour le Tag 'technologique'

Contre la dépendance technologique des GAFAM

Contre la  dépendance technologique des GAFAM

 

La chercheuse en géopolitique Ophélie Coelho, chercheuse en géopolitique  propose dans une tribune au « Monde », une lecture critique des annonces triomphales d’investissements d’infrastructures numériques, qui renforcent le contrôle des Gafam sur les territoires et les données.

 

Sous le couvert de la simplification administrative, un projet de loi, actuellement examiné au Sénat, vise à accélérer l’implantation de mégacentres de données en France en contournant le pouvoir de décision des élus locaux. Le 13 mai, lors du sommet Choose France 2024, les Big Tech Amazon, Microsoft, IBM, la société de placement immobilier américaine Equinix et le japonais Telehouse ont annoncé un plan d’investissement total de près de 7 milliards d’euros pour l’expansion de leurs infrastructures en France. Ces annonces marquent une nouvelle étape dans un processus entamé il y a plusieurs années. Car, en Europe et partout dans le monde, la territorialisation des infrastructures du numérique avance à pas de géant.Ces implantations de centres de données sont loin d’être anodines. Elles font d’abord partie d’une stratégie d’expansion globale de la part des Big Tech, qui va de pair avec la construction des mégacâbles sous-marins les plus puissants au monde. Il suffit de s’intéresser, sur les littoraux européens, à l’atterrage des câbles Dunant (Google), Amitié (Meta), Equiano (Google), 2Africa (Meta, China Mobile, MTN) ou encore Peace (consortium chinois), qui ont tous été construits ces dernières années.Et si ces câbles géants sont les « routes » qui transportent les données et les logiciels, les centres de données sont les « comptoirs » numériques de cette expansion territoriale. Ces infrastructures sont des relais de dépendance technologique majeure aux Big Tech, dont la gestion des données et des logiciels reste hors de contrôle du décideur, du régulateur et de l’utilisateur européens. En fin de compte, cette consolidation des dépendances pèse lourd sur nos capacités de négociation avec l’« ami américain ».

Cette territorialisation infrastructurelle des Big Tech poursuit plusieurs objectifs. Il s’agit d’abord d’une consolidation du marché numérique européen sur le cloud, avec l’idée que la localisation des données sur le territoire est une garantie qu’elles ne seront pas transmises aux Big Tech. Mais l’implantation des centres de données en Europe prépare aussi le terrain à la conquête d’un nouveau marché : la « transformation numérique » du continent africain. Dans cette nouvelle bataille, qui oppose entreprises américaines et chinoises, l’Europe joue le rôle de rampe de lancement et de partenaire conciliant en accueillant sur son territoire les comptoirs numériques des Big Tech…..

Robotique : révolution technologique et cognitive ?

Robotique : révolution technologique et ontologique

Notre société change. De plus en plus, nous accueillons une nouvelle espèce parmi nous. Les robots. Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain. Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau. La première génération d’interactions humain-robot, pour l’industrie Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains.
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Voitures électriques :avancée technologique chinoise grâce au charbon !

Voitures électriques :avancée technologique chinoise grâce au charbon !

Compte tenu de l’insuffisance d’informations sur la plupart des sujets notamment sur leur rapport au contexte systémique, on tombe rapidement dans le simplisme voire la caricature et l’affrontement, c’est le cas avec la voiture électrique et ses perspectives de développement.

Ainsi il y aurait d’un côté les écolos très favorables à la motorisation électrique des automobiles qui permet ou devrait permettre de réduire de manière significative les émissions de carbone si nuisibles au climat.

De l’autre côté, il y aurait les défenseurs de l’industrie automobile classique qui conteste les performances environnementales de la voiture électrique coupable elle aussi d’émissions nuisibles à l’environnement.

Mais on oublie souvent que l’extraordinaire développement de la voiture électrique ( 50 % des voitures neuves en Chine sont électriques) doit beaucoup au charbon. C’est grâce à cette énergie la plus polluante de toutes et aux subventions que le marché de la voiture électrique a pu se développer de manière considérable en Chine. Un développement qui a permis aux pays d’être très en avance sur la technologie électrique .Et la France participe au financement de cette avance à travers le bonus qui s’applique aux voitures françaises dont plus de 50 % des éléments viennent de Chine.

L’exploitation d’un énorme parc électrique permet d’améliorer encore la compétitivité au plan de la production, toujours grâce au charbon de notamment. Les constructeurs européens quant à eux passent des accords avec les Chinois puisqu’une grande partie des composants des voitures européennes viennent de Chine où sont entièrement construites en Chine toujours grâce au charbon. Finalement, le bilan écologique n’est pas aussi vert qu’on le prétend. Par ailleurs il faudrait prendre en compte la problématique de l’ensemble de la politique des transports et l’aménagement du territoire mais cela est une autre question sans doute trop complexe.

Il convient donc de rester les yeux ouverts avant de d’approuver et de se lancer dans de nouvelles stratégies qui finalement ne sont pas aussi favorables à la collectivité si l’on prend en compte les aspects systémiques et les dimensions internationales.

Compte tenu de l’insuffisance d’informations sur la plupart des sujets notamment sur leur rapport au contexte systémique, on tombe rapidement dans le simplisme voire la caricature et l’affrontement, c’est le cas avec la voiture électrique et ses perspectives de déveleoppement.

Ainsi il y aurait d’un côté les écolos très favorables à la motorisation électrique des automobiles qui permet ou devrait permettre de réduire de manière significative les émissions de carbone si nuisibles au climat.

De l’autre côté, il y aurait les défenseurs de l’industrie automobile classique qui conteste les performances environnementales de la voiture électrique coupable elle aussi d’émissions nuisibles à l’environnement.

Mais on oublie souvent que l’extraordinaire développement de la voiture électrique ( 50 % des voitures neuves en Chine sont électriques) doit beaucoup au charbon. C’est grâce à cette énergie la plus polluante de toutes et aux subventions que le marché de la voiture électrique a pu se développer de manière considérable en Chine. Un développement qui a permis aux pays d’être très en avance sur la technologie électrique .Et la France participe au financement de cette avance à travers le bonus qui s’applique aux voitures françaises dont plus de 50 % des éléments viennent de Chine.

Automobiles électriques : une avance technologique chinoise grâce au charbon !

Automobiles électriques : une avance technologique chinoise grâce au charbon !

Compte tenu de l’insuffisance d’informations sur la plupart des sujets notamment sur leur rapport au contexte systémique, on tombe rapidement dans le simplisme voire la caricature et l’affrontement, c’est le cas avec la voiture électrique et ses perspectives de déveleoppement.

Ainsi il y aurait d’un côté les écolos très favorables à la motorisation électrique des automobiles qui permet ou devrait permettre de réduire de manière significative les émissions de carbone si nuisibles au climat.

De l’autre côté, il y aurait les défenseurs de l’industrie automobile classique qui conteste les performances environnementales de la voiture électrique coupable elle aussi d’émissions nuisibles à l’environnement.

Mais on oublie souvent que l’extraordinaire développement de la voiture électrique ( 50 % des voitures neuves en Chine sont électriques) doit beaucoup au charbon. C’est grâce à cette énergie la plus polluante de toutes et aux subventions que le marché de la voiture électrique a pu se développer de manière considérable en Chine. Un développement qui a permis aux pays d’être très en avance sur la technologie électrique .Et la France participe au financement de cette avance à travers le bonus qui s’applique aux voitures françaises dont plus de 50 % des éléments viennent de Chine.

L’exploitation d’un énorme parc électrique permet d’améliorer encore la compétitivité au plan de la production, toujours grâce au charbon de notamment. Les constructeurs européens quant à eux passent des accords avec les Chinois puisqu’une grande partie des composants des voitures européennes viennent de Chine où sont entièrement construites en Chine toujours grâce au charbon. Finalement, le bilan écologique n’est pas aussi vert qu’on le prétend. Par ailleurs il faudrait prendre en compte la problématique de l’ensemble de la politique des transports et l’aménagement du territoire mais cela est une autre question sans doute trop complexe.

Il convient donc de rester les yeux ouverts avant de d’approuver et de se lancer dans de nouvelles stratégies qui finalement ne sont pas aussi favorables à la collectivité si l’on prend en compte les aspects systémiques et les dimensions internationales.

Compte tenu de l’insuffisance d’informations sur la plupart des sujets notamment sur leur rapport au contexte systémique, on tombe rapidement dans le simplisme voire la caricature et l’affrontement, c’est le cas avec la voiture électrique et ses perspectives de déveleoppement.

Ainsi il y aurait d’un côté les écolos très favorables à la motorisation électrique des automobiles qui permet ou devrait permettre de réduire de manière significative les émissions de carbone si nuisibles au climat.

De l’autre côté, il y aurait les défenseurs de l’industrie automobile classique qui conteste les performances environnementales de la voiture électrique coupable elle aussi d’émissions nuisibles à l’environnement.

Mais on oublie souvent que l’extraordinaire développement de la voiture électrique ( 50 % des voitures neuves en Chine sont électriques) doit beaucoup au charbon. C’est grâce à cette énergie la plus polluante de toutes et aux subventions que le marché de la voiture électrique a pu se développer de manière considérable en Chine. Un développement qui a permis aux pays d’être très en avance sur la technologie électrique .Et la France participe au financement de cette avance à travers le bonus qui s’applique aux voitures françaises dont plus de 50 % des éléments viennent de Chine.

L’exploitation d’un énorme parc électrique permet d’améliorer encore la compétitivité au plan de la production, toujours grâce au charbon de notamment. Les constructeurs européens quant à eux passent des accords avec les Chinois puisqu’une grande partie des composants des voitures européennes viennent de Chine où sont entièrement construites en Chine toujours grâce au charbon. Finalement, le bilan écologique n’est pas aussi vert qu’on le prétend. Par ailleurs il faudrait prendre en compte la problématique de l’ensemble de la politique des transports et l’aménagement du territoire mais cela est une autre question sans doute trop complexe.

Il convient donc de rester les yeux ouverts avant de d’approuver et de se lancer dans de nouvelles stratégies qui finalement ne sont pas aussi favorables à la collectivité si l’on prend en compte les aspects systémiques et les dimensions internationales.

Folie technologique : Implants cérébraux sur l’homme dès cette année

Folie technologique : Implants cérébraux sur l’homme dès cette année

Elon Musk ( avec sa société Neuralink ) dotera un premier être humain d’implants cérébraux dès cette année. Le milliardaire américain a donné cet objectif, vendredi 16 juin, lors d’une conférence organisée au salon VivaTech à Paris. Son but ? Tout simplement faire communiquer directement cerveaux et ordinateurs. Franceinfo évoque les questions éthiques de cette technologie questions éthiques.

1Neuralink, qu’est-ce que c’est ?
Neuralink est une entreprise cofondée par Elon Musk en 2016, qui conçoit des appareils à implanter dans le cerveau pour communiquer avec les ordinateurs directement par la pensée. A moyen terme, l’objectif est d’aider des personnes paralysées, atteintes de lésions de la moelle épinière ou souffrant de maladies neurologiques comme la maladie de Parkinson. A long terme, Elon Musk entend créer une relation symbiotique entre l’homme et l’intelligence artificielle, ce qui pourrait brouiller les frontières entre la pensée humaine et l’informatique.

Selon des données du cabinet Pitchbook, Neuralink, basée en Californie, emploie plus de 400 personnes et a levé au moins 363 millions de dollars.

2Comment fonctionne cette technologie ?

La technologie de Neuralink consiste en un implant placé dans le cerveau par une chirurgie effectuée par un robot. Une fois implanté, l’objet serait invisible de l’extérieur et serait alimenté par une petite batterie rechargeable à distance. L’implant, de la taille d’une pièce de monnaie, dispose d’électrodes capables d’enregistrer des signaux nerveux et de stimuler des régions spécifiques du cerveau.

Neuralink travaille aussi sur le développement d’implants à installer dans la moelle épinière ou les yeux, pour rendre la mobilité ou la vision. La start-up veut rendre ces implants suffisamment sûrs et fiables pour qu’ils relèvent de la chirurgie élective (de confort). Des personnes pourraient alors débourser quelques milliers de dollars pour doter leur cerveau d’une puissance informatique.

3Des tests ont-ils déjà été menés ?
Elon Musk, qui promet souvent l’avènement de nouvelles technologies développées par ses entreprises avant leur arrivée concrète, avait estimé en juillet 2019 que Neuralink pourrait réaliser ses premiers tests sur des individus dès 2020. Pour l’instant, les prototypes ont été implantés dans le crâne d’animaux, dont des singes. La start-up avait ainsi montré, en 2021, un singe pouvant jouer au jeu vidéo Pong grâce à la pensée ou d’autres pouvant écrire des mots sur des écrans en suivant des yeux le mouvement du curseur.

Interrogée par Le Parisien, la neurobiologiste Catherine Vidal, directrice de recherche honoraire à l’Institut Pasteur, assure que ces résultats préliminaires restent cependant « bien loin des objectifs affichés par Elon Musk pour pallier les handicaps chez les humains ».

4Quels problèmes éthiques cela pose-t-il ?

L’idée d’une symbiose entre l’humain et la machine enthousiasme depuis longtemps certains férus de technologies, tout en alimentant les cauchemars d’un futur dystopique dominé par les cyborgs, des êtres humains greffés avec de la mécanique ou de l’électronique, comme l’explique le musée de l’Homme. Dans un sondage réalisé par l’institut de recherche Pew l’an dernier, 78% des personnes adultes interrogées déclaraient qu’elles ne souhaitaient probablement pas ou certainement pas qu’une puce informatique soit implantée dans leur cerveau pour traiter les informations plus rapidement.

Selon l’agence de presse Reuters, le ministère de l’Agriculture américain a en outre ouvert en décembre une enquête sur de possibles infractions aux textes sur la protection des animaux par Neuralink. L’agence rapportait alors que l’entreprise avait tué environ 1 500 animaux, dont plus de 280 moutons, cochons et singes. Au sujet des expérimentations sur les singes, le site d’information Cnet rappelle que l’ONG américaine Physicians Committee for Responsible Medicine a, en décembre dernier, assuré que « des centaines de pages de documents publics ont révélé de véritables horreurs : crânes ouverts, dispositifs implantés, infections chroniques, paralysie, convulsions et mort ».

5Est-ce la seule entreprise à se positionner sur ce marché ?

Même si Neuralink attire l’attention des médias, la start-up est loin d’être la seule à travailler sur le contrôle des ordinateurs par la pensée. Synchron, une entreprise américano-australienne, a ainsi annoncé en juillet 2022 avoir implanté la première interface cerveau-machine sur un humain aux Etats-Unis. Selon des informations de presse, Elon Musk a contacté l’an dernier Synchron pour proposer un éventuel investissement.

La société Blackrock Neurotech a également reçu l’approbation de l’agence américaine supervisant les dispositifs médicaux (FDA) pour des essais sur l’être humain. Un cofondateur de Neuralink a aussi quitté l’entreprise et levé des sommes importantes pour sa propre start-up, baptisée Science Corp. Parmi les autres entreprises cherchant à s’établir dans le secteur figurent BrainCo, Kernel ou encore CTRL-Labs, une entité de la division « réalité virtuelle » de Meta.

TECH-ChatGPT : enjeu technologique et sociétal ?

-TECH-ChatGPT : enjeu technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

TECH-ChatGPT : un bond technologique et sociétal ?

-TECH-ChatGPT : un bond technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

ChatGPT : un saut technologique et sociétal ?

ChatGPT : un saut technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

ChatGPT : un tournant technologique ?

ChatGPT : un tournant technologique ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

Intelligence artificielle, révolution humaine ou technologique ?

Intelligence artificielle, révolution  humaine ou technologique ?

 

 Alors que les algorithmes colorent notre quotidien, persistent certaines réactions de rejet, ou fantasmes issus du réalisme de fictions qui confondent intelligence et domination. Par Emeric Kubiak, Head of Science chez AssessFirst dans la Tribune
 
Les algorithmes sont jugés plus sévèrement que les humains quand ils font une erreur. Aussi, s’il est malvenu de chercher à nier les dérives dangereuses issues de l’usage de certains algorithmes, il serait encore plus naïf de tous les condamner, au gré de sur-généralisations, de leur incompréhension, ou de la malhonnêteté de certains concepteurs estime Emeric Kubiak, Head of Science chez AssessFirstConsidérer les algorithmes à travers l’unique prisme d’une menace ou d’une déshumanisation se révèle ainsi une erreur d’attribution qui nous limite dans notre capacité à les comprendre comme catalyseur du potentiel et des synergies humaines. Dans le fond, les technologies ne changent pas réellement les sociétés : c’est leur réappropriation par l’Homme qui permet d’en faire de réelles évolutions. Cette fine nuance permet d’envisager la place centrale de chacun dans la construction d’un futur souhaité, où l’emportent les applications bénéfiques de l’IA.

La tendance à préférer les recommandations faites par une autre personne plutôt que par un système de recommandation (même plus performant) s’expliquerait par une illusion de mieux comprendre l’humain. Celle-ci émerge du fait que les gens projettent plus facilement leur compréhension intuitive d’un processus de décision vers une autre personne, plutôt que vers un algorithme. Toutefois, quand on leur demande d’expliquer la décision d’une autre personne, leur perception de compréhension diminue. Il en est de même pour notre compréhension des algorithmes : si nous pensons comprendre leur fonctionnement, nous faisons preuve d’une forte surconfiance issue d’un principe d’illusion de profondeur explicativeD’autres études au MIT montrent par ailleurs l’importance du style cognitif dans l’acceptation, ou l’aversion à l’IA.

Ces conclusions ne doivent pas laisser croire que les algorithmes ont toujours raison : elles invitent plutôt chacun à prendre la mesure de ses propres biais et crédulité, à développer son humilité intellectuelle, et à repenser ses convictions. Alors que l’explicabilité des algorithmes s’avère une nécessité, l’émancipation intellectuelle devient un levier essentiel pour amener chacun à se forger une compréhension éclairée de leur potentiel, au-delà des zones d’ombre et du sensationnalisme portés par certains lobbies. À tous les niveaux de la société, il apparaît ainsi essentiel de promouvoir la culture scientifique et de développer son esprit critique.

L’émergence de l’IA appelle d’autre part à renforcer les synergies collectives, et à briser les silos existants dans les entreprises ou dans l’éducation. Longtemps perçue comme une activité à l’exclusivité des profils ‘techniques’, force est de constater qu’un besoin de transversalité et de pluridisciplinarité est nécessaire, afin de  permettre à chacun de se sentir concerné par l’émergence de l’IA, et de développer des systèmes efficaces et impactant. Il est, en effet, encore – trop – courant et regrettable de voir émerger des gaps entre les perceptions de différents acteurs quant au potentiel de l’IA, ou de voir se créer des start-ups qui proposent d’automatiser certains processus métiers qu’elles ne maîtrisent pas. Les entreprises doivent ainsi se détacher d’une vision ‘product-first’, pour construire une vision ‘service’ qui considère l’utilisateur final comme un réel collaborateur et coconcepteur du service. Créer une harmonie entre les disciplines et les personnes, à travers une approche systémique de l’IA, de son développement, et de ses capacités, est alors un prérequis pour en jouir des bénéfices, tout en contrôlant les biais, grâce à l’apport d’expertises complémentaires et interactives. Certains écosystèmes mettent d’ailleurs déjà en place ce genre de collaborations pluridisciplinaires.

L’IA s’avère avant tout une révolution humaine, tant dans notre capacité à actualiser nos connaissances, que d’optimiser nos collaborations. Se focaliser sur de potentielles menaces, bien que légitime, c’est passer à côté d’une incroyable opportunité de nous faire évoluer individuellement et collectivement. Les débats ne doivent donc plus s’attarder à une dualité entre les Hommes et l’IA : qu’on le veuille ou non, la prévalence des algorithmes croît de manière exponentielle. Une réflexion plus stimulante est de vous interroger sur la place que vous voulez avoir dans la définition du monde de demain : rester passif et tolérer un monde décidé par d’autres, ou être proactif dans la coconstruction d’un monde souhaité ?

 

Qu’est-ce qu’un algorithme ?

D’après le site  univesitaire «  the conversation » 

 

Le mot « algorithme » est utilisé couramment dans la presse pour désigner le fonctionnement opaque des moteurs de recherche et des réseaux sociaux.

Mais de quoi parlons-nous exactement ? Qu’est-ce qu’un algorithme ? Cette notion a traversé l’histoire, depuis Euclide jusqu’aux algorithmes des GAFAM. Les algorithmes peuvent-ils résoudre n’importe quel problème ? Quelles garanties a-t-on sur leur comportement ? Quels sont leurs impacts sociétaux ?

Au IXe siècle, en Perse

L’étymologie fait remonter l’histoire des algorithmes au savant persan Muhammad Ibn Mūsā al-Khuwārizmī, qui aux alentours de l’an 800 a publié les premiers manuels de résolution d’équations. Ses méthodes, à l’origine de l’algèbre, concernent typiquement des problèmes de calcul pratiques : des questions d’héritage ou de mesure.

Ses ouvrages sont traduits en latin au cours du XIIe siècle et popularisés par des personnalités telles que le mathématicien italien Leonardo Fibonacci. C’est son nom, latinisé en « algoritmi » ou « algorismi », qui est à l’origine du terme « algorithme ». Près d’un millénaire avant lui, Euclide avait décrit dans les Éléments une méthode pour calculer le plus grand diviseur commun de deux nombres.

Au XXe siècle, la notion d’algorithme construit des branches des mathématiques

Il faut pourtant attendre le début du XXe siècle pour que la notion d’algorithme soit formalisée. Dans son célèbre discours au deuxième congrès international des mathématiciens à Paris en 1900, le mathématicien allemand David Hilbert propose 23 problèmes ouverts, 23 défis à relever pour la communauté mathématique, dont les énoncés auront une influence considérable sur le développement des mathématiques dans les décennies suivantes. Le dixième problème porte sur l’existence d’une « méthode par laquelle, au moyen d’un nombre fini d’opérations, on pourra déterminer l’existence d’une solution en nombres entiers à une équation polynomiale à coefficients entiers » (les équations « Diophantiennes »). C’est bien de l’existence d’un algorithme qu’il s’agit.

C’est par les travaux fondateurs d’Alan Turing et d’Alonzo Church, entre autres, que les algorithmes deviennent des objets mathématiques à part entière. Dans son article de 1936, Alan Turing donne sa définition de la « calculabilité » d’une fonction : il doit exister une machine qui donne sa valeur en un nombre fini d’étapes élémentaires, guidées par un système de transitions et le contenu d’un ruban, qui joue le rôle de mémoire. C’est la célèbre « machine de Turing ».

Alan Turing comprend le lien entre la calculabilité d’une fonction et le caractère démontrable d’une assertion mathématique dans un système d’axiomes. L’informatique théorique devient une branche des mathématiques.

On circonscrit la puissance des algorithmes, et certains problèmes sont démontrés indécidables : aucun algorithme n’existe pour les résoudre. En 1970, Julia Robinson et Youri Matiiassevitch résolvent finalement le dixième problème de Hilbert : la résolution des équations diophantiennes est un problème indécidable !

Au cours des années 1970, on établit des hiérarchies de problèmes en fonction du temps et de l’espace qu’un algorithme requiert pour les résoudre : c’est la théorie de la complexité.

Comment se présente un algorithme ?

Les algorithmes sont souvent comparés à des recettes de cuisine : une suite d’instructions précises permettant d’obtenir un résultat en un nombre fini d’étapes.

Cette image est juste, mais occulte sans doute un aspect fondamental, le fait qu’un algorithme reçoit des données à traiter (nombres, texte, relations), et certaines instructions sont conditionnelles : les étapes suivies dépendent de ces données, et les exécutions peuvent suivre un cours difficilement prévisible. On peut donner ces instructions sous différentes formes bien définies (organigramme, langage de description), ou même, avec les précautions de rigueur, en langage naturel.

Nous avons tous appris l’algorithme de multiplication de deux nombres à l’école primaire, sans l’aide d’un formalisme avancé. Les algorithmes sont en principe destinés à être mis en œuvre sous forme de programme, dans un langage de programmation compréhensible par un ordinateur. Mais l’algorithme existe indépendamment de cette traduction.

Pour cerner la portée des algorithmes dans nos vies modernes, il faut distinguer leurs familles

Pour mieux comprendre les enjeux et les défis actuels autour des algorithmes, il est important de cerner leur portée et les propriétés que nous sommes à même de garantir sur leurs résultats et leurs comportements. Une typologie des algorithmes est indispensable à cette compréhension.

On peut d’abord distinguer une famille d’algorithmes tellement omniprésents dans notre quotidien qu’ils y sont presque devenus invisibles. Il s’agit d’algorithmes exacts pour des tâches parfaitement bien définies, dont le résultat est facilement vérifiable : multiplier deux nombres, trier une liste de noms par ordre alphabétique, stocker et retrouver efficacement une information, effectuer la conversion d’un signal analogique vers un signal numérique, interpréter un programme.

Le boulier, un instrument d’aide au calcul permettant de faire des additions, soustractions, multiplications et divisions ainsi que l’extraction de racine carrée. HB

Il s’agit là des algorithmes fondamentaux étudiés depuis les balbutiements des sciences informatiques. Ils ne font pas moins pour autant l’objet de recherches actuelles, tant des mystères subsistent autour de la complexité de certaines opérations fondamentales. La complexité exacte du problème de multiplication de deux nombres entiers, par exemple, est d’un point de vue théorique encore ouverte : nous sommes actuellement incapables de démontrer que la multiplication prend nécessairement plus de temps que l’addition ! Le meilleur algorithme de multiplication connu n’a été publié que très récemment.

Les algorithmes d’optimisation constituent une deuxième famille importante. Ils résolvent des problèmes dans lesquels on cherche à identifier des paramètres ou une configuration qui maximise ou minimise une valeur, appelée « fonction objectif ». Les applications concrètes consistent par exemple en la recherche d’un chemin le plus court entre deux points, l’ordonnancement des phases d’un projet pour en minimiser la durée, le choix des emplacements d’antennes pour couvrir à moindre coût une zone donnée, ou celui des paramètres des routeurs d’un réseau pour en minimiser la latence.

Les objectifs des algorithmes de ces deux familles sont quantifiables et leurs résultats sont mathématiquement garantis. Les méthodes formelles permettent de vérifier rigoureusement les propriétés d’un algorithme. Les algorithmes d’optimisation linéaire sont bien compris.

Une troisième famille d’algorithmes, plus spécialisés, est celle des algorithmes cryptographiques, destinés à garantir la sécurité des communications et transactions. Cette sécurité repose souvent sur des hypothèses liées à la complexité de problèmes algorithmiques. Le célèbre algorithme RSA (du nom de ses inventeurs : Ronald Rivest, Adi Shamir et Leonard Adleman), par exemple, fait reposer la sécurité des transactions commerciales électroniques sur l’hypothèse qu’il n’existe pas d’algorithme efficace pour décomposer un nombre en ses facteurs premiers.

Certaines procédures issues des recherches en intelligence artificielle, en revanche, ne se soumettent pas facilement à une analyse rigoureuse.

Les algorithmes changent de nature avec l’intelligence artificielle

Parmi ceux-ci, les algorithmes de classification cherchent à placer les données reçues en entrée dans une catégorie correspondant à une réalité extérieure. Un algorithme de reconnaissance d’animaux, par exemple, recevra en entrée une image sous forme d’un tableau de pixels, et devra déterminer si cette image représente plutôt un chat ou un dauphin. Cette tâche n’est pas formellement bien définie : on peut probablement trouver une image ambiguë pour laquelle les réponses fournies par des humains pourraient être différentes. Le caractère correct de ces algorithmes dépend d’une réalité extérieure, qui n’est pas formalisée, et leur exactitude, ou précision, ne peut être établie qu’expérimentalement.

De la même manière, les algorithmes de prédiction cherchent à anticiper l’évolution de certaines quantités mesurées dans le monde physique, ou des comportements dans une population. Ils sont utilisés par exemple en finance pour prédire l’évolution des marchés, ou en marketing, pour présenter aux visiteurs d’un site web les produits ou publicités les plus susceptibles d’attirer leur attention. La pertinence des résultats est ici encore validée empiriquement, et non mathématiquement. À tel point qu’en 2006, la société Netflix a lancé un concours pour améliorer les performances de son algorithme de prédiction d’évaluations de films, avec un prix d’un million de dollars à la clé.

Le développement des ces algorithmes fait massivement appel à des modèles probabilistes, mais aussi à des structures difficilement analysables rigoureusement. C’est le cas en particulier pour les algorithmes de réseaux de neurones artificiels utilisés dans ce qu’on appelle désormais l’« apprentissage profond », en référence au nombre de couches utilisées dans ces réseaux. Ces réseaux encodent implicitement la mémoire des données fournies lors d’une phase d’apprentissage, et permettent de classifier de nouvelles données en entrée.

Que pouvons-nous exiger des algorithmes ?

L’omniprésence des algorithmes fait légitimement l’objet de craintes. Quelles sont les garanties que nous pouvons exiger ?

Un premier type de garantie porte sur l’efficacité. Combien de temps doit-on attendre pour avoir une réponse ? De quelle quantité de mémoire doit-on disposer ? Ces questions sont bien étudiées et ont des formulations et des réponses rigoureuses, mais partielles. Les lacunes dans notre compréhension de la complexité algorithmique laissent en particulier ouverte la possibilité d’attaques inédites mettant en péril la cryptographie basée sur l’algorithme RSA.

La question traditionnelle des performances est intimement liée aux questions de consommation de ressources, qui ont des impacts écologiques. On peut donner à cette question un cadre plus large, et s’interroger sur les ressources consommées par les logiciels, les serveurs. Dans le domaine des algorithmes cryptographiques, certains mécanismes au cœur du fonctionnement des cryptomonnaies, en particulier le principe de la « preuve de travail », ont un impact énergétique dramatique.

Lorsque les objectifs sont facilement vérifiables, comme dans le cas d’un algorithme de tri, ou quantifiés explicitement, comme dans le cas d’un algorithme d’optimisation, il existe une mesure objective de la qualité de la solution. Dans le cas des algorithmes d’optimisation, cependant, le choix de la fonction objectif, la quantité que l’on optimise, peut avoir un impact humain considérable.

Des questions d’éthique

Les questions d’équité et de transparence des algorithmes de classification et de prédiction deviennent pressantes. Dans un ouvrage devenu classique, Cathy O’Neil alerte sur les dérives des systèmes de prise de décision dans les domaines de la justice, de l’action policière, des assurances, de l’évaluation des enseignants, entre autres.

L’algorithme de Gale-Shapley, utilisé par la plate-forme Parcoursup satisfait des propriétés d’optimalité, mais garantit également qu’un comportement stratégique de la part des postulants est impossible.

Les méthodes d’apprentissage supervisé pour la classification consistent classiquement en une collection d’exemples, de paires « entrée-sortie », dont on espère qu’ils peuvent être généralisés, de façon qu’une nouvelle donnée en entrée puisse être associée à une réponse en sortie qui fasse sens. En ne fournissant que des exemples connus lors de ces phases d’apprentissage, on inculque au système tous les biais présents de facto dans les exemples dont on dispose, et l’on apprend ainsi à la machine à les reproduire. C’est le thème du documentaire Coded Bias, relatant l’expérience d’une étudiante du MIT avec les algorithmes de reconnaissance faciale.

Le caractère parfois inexplicable des résultats termine d’expliquer le glissement sémantique récent du mot algorithme : de simple méthode de calcul, l’algorithme est perçu comme une boîte noire omnipotente, dont le fonctionnement interne est inaccessible, et dont les réponses finissent par se substituer à la réalité. Cette perception s’explique notamment par la résurgence des méthodes de réseaux de neurones, dont la complexité défie toute analyse formelle. Les succès expérimentaux dans les tâches confiées aux réseaux profonds sont indéniables et fascinants. Mais certaines expériences mettent en évidence leur fragilité : des chercheurs ont montré qu’en modifiant de manière imperceptible quelques pixels bien choisis d’une image, on peut changer du tout au tout la réponse fournie. En l’absence d’explicitation de la réponse (« c’est un chat, car il a des oreilles pointues et des moustaches »), les questions de confiance et de responsabilités se posent.

La communauté de recherche en intelligence artificielle et en apprentissage automatique s’est emparée des questions d’équité et d’explicabilité : le développement de méthodes d’apprentissage incluant des critères d’équité (fairness in AI) est en plein essor, tandis que le domaine de l’intelligence artificielle « explicable » (explainable AI) traite de la justification des résultats et de la confiance.

Al-Khuwārizmī aurait sûrement été surpris de la postérité de son patronyme !

Environnement: « La ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total »

Environnement: « La ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total »

 

La clé de la transition énergétique ne peut être laissée aux seules mains des maires, même si la ville est aujourd’hui la principale émettrice des gaz à effet de serre, analyse dans une tribune au « Monde » Albert Levy, architecte urbaniste. Il souligne la nécessité d’une politique relevant du pouvoir central.

 

Un article intéressant mais qui aborde bout des lèvres la question de l’aménagement du territoire comme si la super concentration était une donnée incontournable. La vraie question est en effet celle de la répartition harmonieuse de la population sur l’ensemble du territoire et de l’équilibre homme nature NDLR

 

Dans son dernier rapport annuel, en 2021, l’Autorité environnementale (AE) a livré un diagnostic accablant en concluant que la transition écologique n’a pas encore été vraiment amorcée en France. Après le Haut Conseil pour le climat, l’AE a rappelé qu’à côté des politiques d’atténuation des émissions de gaz à effet de serre (GES) l’adaptation au dérèglement climatique est également un impératif majeur pour les villes. A ce sévère constat au niveau national s’ajoute celui de la Chambre régionale des comptes d’Ile-de-France pour la région parisienne, notamment le bilan de l’action de la Ville de Paris en matière de climat depuis 2004, qui montre l’écart entre les objectifs annoncés et les résultats obtenus. Le plan climat de 2004 visait la réduction de 75 % des émissions de GES en 2050, par rapport à 2004, avec un objectif intermédiaire de 25 % en 2020. Le chiffre de 20 % a été atteint. Sur 25 % d’énergies renouvelables prévus pour 2020 (10 % en 2004), seuls 18 % ont été obtenus, et pour la sobriété énergétique, sur 25 % d’économie visés, 5 % seulement ont été atteints. Les services de la Mairie ont eux-mêmes été peu exemplaires : les émissions de GES, dont la baisse programmée était de 30 %, n’ont reculé que de 9 %, de même l’éclairage public de 3,5 % au lieu des 30 % pronostiqués. On est loin de la trajectoire vers la ville neutre en carbone avec 100 % d’énergies renouvelables pour 2050, conclut le rapport de la Chambre régionale, qui reste pessimiste sur la possibilité d’atteindre cet objectif.

Cette politique vers une économie « zéro pétrole », vers une « ville postcarbone », implique de repenser totalement la ville existante et son fonctionnement, voire l’aménagement du territoire, et une planification écologique qui doit articuler différentes échelles dans sa mise en œuvre. Se passer du « pétrole énergie » pour se chauffer, s’éclairer, cuisiner, communiquer, travailler… en le remplaçant par une électricité 100 % d’origine renouvelable (sans énergie nucléaire ?), se déplacer autrement (sans voiture thermique), transporter voyageurs et marchandises en utilisant des carburants non fossiles (batterie électrique, biocarburant, hydrogène « vert »…), réduire la facture énergétique en isolant/rénovant tout le parc immobilier, résidentiel et tertiaire pour atteindre la neutralité carbone restent, en effet, un énorme défi écologique. Energie, transport, pétrochimie… la ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total. Dans ce cadre, il faudra une planification qui coordonne les différentes politiques sectorielles indispensables pour sortir, progressivement et sans choc, des énergies fossiles (voir, par exemple, les travaux du think tank The Shift Project).

Le patriotisme technologique d’Emmanuel Macron est dépassé

 Le patriotisme technologique d’Emmanuel Macron est dépassé

 

 

Jean-Baptiste Fressoz, Historien, chercheur au CNRS, critique dans le monde le patriotisme techno de Macron (extrait)

 

 

A l’issue d’un quinquennat très « Silicon Valley », « French Tech » et « start-up », on en revient aux fondamentaux du patriotisme technologique français : discours le 17 septembre devant les caméras pour célébrer les 40 ans du TGV avec, en arrière-plan, la proue du dernier modèle, flambant neuf. Le 1er septembre, Macron avait confié au magazine Challenges son panthéon technologique : « Le TGV, Ariane, le Concorde et le nucléaire. »

 

Voici donc les techniques « nationales » qu’il admire et auxquelles il faudrait, affirme-t-il, donner « des successeurs ». C’est à cela que doivent servir les milliards d’euros du plan de relance, et certainement pas à financer l’isolation des bâtiments ou la nécessaire mais peu spectaculaire rénovation ferroviaire.

Cet inventaire de machines de pointe, puissantes et rapides – qui paraît tout droit sorti de la scène érotique assez cocasse du dernier OSS 117 – a cela d’étrange qu’il est difficile d’y trouver une technologie qui ait rendu les Français plus prospères.

Le cas le plus évident est celui du Concorde. Si l’on accuse parfois la jalousie américaine d’avoir tué dans l’œuf « le bel oiseau franco-anglais » sous prétexte de nuisances sonores, son histoire est en fait celle d’un désastre économique annoncé. Comme l’ont montré récemment les travaux de Thomas Kelsey au King’s College de Londres, le Treasury (ministère des finances) britannique s’est opposé avec constance à ce projet sans débouché commercial.

Les gouvernements successifs persévérèrent pour diverses raisons – ne pas fâcher les Français qui tenaient la clé de leur entrée à la CEE, ne pas se mettre à dos les syndicats, ne pas froisser le patriotisme des électeurs. Et malgré la propagande pesante sur la « prouesse technologique », le Concorde fut un formidable fiasco. Du fait de sa consommation extravagante, le poids du carburant embarqué était supérieur à celui de l’appareil et égal à dix fois sa charge utile.

Les coûts d’opération étaient si élevés qu’il fallait le vendre un cinquième de son prix de production pour que British Aviation et Air France acceptent de le faire voler ; les autres compagnies s’y refusèrent. Même à 8 000 euros le billet Paris-New York, l’argent du contribuable subventionnait largement les fantasmes de vitesse de quelques fortunés.

Société-Espionnage et Pégasus: le risque de la dépendance technologique

Société-Espionnage et Pégasus: le risque de la dépendance  technologique

 

Pour Alain Bauer , criminologue,« Cette affaire indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies » (extrait ,dans l’Opinion)

 

Les informations fournies par le journalisme de révélation concernant le logiciel Pegasus du Groupe NSO ont provoqué de nombreuses réactions indignées, souvent à juste titre, parfois relevant d’un registre que Pandore avait dû oublier dans un recoin de son bagage, l’hypocrisie.

Depuis l’ouverture des lettres à la vapeur par les ancêtres des renseignements généraux dans les wagons postaux des chemins de fer et l’utilisation des « écouteurs » installés près des demoiselles du téléphone, tout ce qui s’imprime se copie et tout ce qui se communique s’écoute. Etats d’abord, au nom de leur souveraineté nationale, gouvernements ensuite au nom de leur durabilité politique, très grandes entreprises enfin au nom de leurs enjeux économiques… Les opérations d’interception et de renseignement sont aussi vieilles que l’humanité.

Sous-traitance. Pour autant, l’affaire Pegasus indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies. Depuis les révélations Snowden (lui-même consultant privé pour la NSA), on a pu constater l’importance de la sous-traitance des opérations de sécurité à des opérateurs plus ou moins privés. Il en est ainsi depuis toujours avec les armées privées, les mercenaires d’antan étant avantageusement remplacés par des forces supplétives comme Executive Outcome du temps de l’ancienne Afrique du Sud ou KMS pour le Royaume-Uni, plus récemment Blackwater (devenu Academi) pour les États-Unis, Wagner pour la Russie, HXZXA pour la Chine, Amarante pour la France.

Ce qui semble avoir bouleversé les anciens équilibres, c’est l’apparition d’opérateurs technologiques de pointe, souvent issus des services publics de renseignement, commercialisant des outils intrusifs à la hauteur des enjeux sécuritaires d’une époque marquée par le terrorisme et le retour des tensions internationales. Palantir en fut et en reste l’expression la plus visible, en termes d’exploitation et d’analyse du renseignement. Mais d’autres opérateurs se sont développés dans le secteur hautement intrusif de l’interception non judiciaire, bien mieux maîtrisée par les pouvoirs publics.

«  Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux  »

Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux : HackingTeam, GammaGroup, Ability, Verint, Intellexa et des dizaines d’autres sont positionnés sur ces marchés plus ou moins contrôlés par les Etats. Ils en profitent pour assurer une offre technologique mondiale qui sert aussi leurs intérêts souverains, de près comme de loin.

Il conviendrait donc désormais, outre le renforcement des outils de contrôle que sont la Commission nationale de contrôle des techniques de renseignement (CNCTR) ou la Délégation parlementaire au renseignement (DPR) pour les utilisations nationales, que toute exportation de logiciels de surveillance fasse l’objet d’une information préalable des outils réglementaires et parlementaires mis en place depuis la loi Renseignement imposée par le président Sarkozy sur une idée initialement développée par Michel Rocard.

De plus, afin d’éviter un affaiblissement de souveraineté et afin de ne pas se trouver en dépendance technologique, il conviendrait que l’Etat intervienne rapidement afin de ne pas laisser à des opérateurs étrangers le contrôle d’entreprises françaises affaiblies par des mesures judiciaires en cours visant des exportations de technologies pourtant autorisées vers des pays dont la conception des droits humains semble plus que discutable.

Les questions de renseignement méritent plus que des imprécations, des incantations et des lamentations. La justice doit faire son travail en établissant les responsabilités réelles des opérations menées. Le gouvernement doit faire le sien en sécurisant ses réseaux de communication (cryptage obligatoire, numéro virtuel…) et surtout en mettant à l’abri les développeurs nationaux qui seront les garants de la souveraineté numérique.

Alain Bauer est professeur de criminologie au Conservatoire National des Arts et Métiers, New York et Shanghai. Il publiera prochainement un  «  Dictionnaire des espionnes et des espions  » (Gründ).

Espionnage-Pégasus: le risque de la dépendance technologique

Espionnage-Pégasus: le risque de la dépendance  technologique

 

Pour Alain Bauer , criminologue,« Cette affaire indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies » (extrait ,dans l’Opinion)

 

Les informations fournies par le journalisme de révélation concernant le logiciel Pegasus du Groupe NSO ont provoqué de nombreuses réactions indignées, souvent à juste titre, parfois relevant d’un registre que Pandore avait dû oublier dans un recoin de son bagage, l’hypocrisie.

Depuis l’ouverture des lettres à la vapeur par les ancêtres des renseignements généraux dans les wagons postaux des chemins de fer et l’utilisation des « écouteurs » installés près des demoiselles du téléphone, tout ce qui s’imprime se copie et tout ce qui se communique s’écoute. Etats d’abord, au nom de leur souveraineté nationale, gouvernements ensuite au nom de leur durabilité politique, très grandes entreprises enfin au nom de leurs enjeux économiques… Les opérations d’interception et de renseignement sont aussi vieilles que l’humanité.

Sous-traitance. Pour autant, l’affaire Pegasus indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies. Depuis les révélations Snowden (lui-même consultant privé pour la NSA), on a pu constater l’importance de la sous-traitance des opérations de sécurité à des opérateurs plus ou moins privés. Il en est ainsi depuis toujours avec les armées privées, les mercenaires d’antan étant avantageusement remplacés par des forces supplétives comme Executive Outcome du temps de l’ancienne Afrique du Sud ou KMS pour le Royaume-Uni, plus récemment Blackwater (devenu Academi) pour les États-Unis, Wagner pour la Russie, HXZXA pour la Chine, Amarante pour la France.

Ce qui semble avoir bouleversé les anciens équilibres, c’est l’apparition d’opérateurs technologiques de pointe, souvent issus des services publics de renseignement, commercialisant des outils intrusifs à la hauteur des enjeux sécuritaires d’une époque marquée par le terrorisme et le retour des tensions internationales. Palantir en fut et en reste l’expression la plus visible, en termes d’exploitation et d’analyse du renseignement. Mais d’autres opérateurs se sont développés dans le secteur hautement intrusif de l’interception non judiciaire, bien mieux maîtrisée par les pouvoirs publics.

«  Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux  »

Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux : HackingTeam, GammaGroup, Ability, Verint, Intellexa et des dizaines d’autres sont positionnés sur ces marchés plus ou moins contrôlés par les Etats. Ils en profitent pour assurer une offre technologique mondiale qui sert aussi leurs intérêts souverains, de près comme de loin.

Il conviendrait donc désormais, outre le renforcement des outils de contrôle que sont la Commission nationale de contrôle des techniques de renseignement (CNCTR) ou la Délégation parlementaire au renseignement (DPR) pour les utilisations nationales, que toute exportation de logiciels de surveillance fasse l’objet d’une information préalable des outils réglementaires et parlementaires mis en place depuis la loi Renseignement imposée par le président Sarkozy sur une idée initialement développée par Michel Rocard.

Lamentations. De plus, afin d’éviter un affaiblissement de souveraineté et afin de ne pas se trouver en dépendance technologique, il conviendrait que l’Etat intervienne rapidement afin de ne pas laisser à des opérateurs étrangers le contrôle d’entreprises françaises affaiblies par des mesures judiciaires en cours visant des exportations de technologies pourtant autorisées vers des pays dont la conception des droits humains semble plus que discutable.

Les questions de renseignement méritent plus que des imprécations, des incantations et des lamentations. La justice doit faire son travail en établissant les responsabilités réelles des opérations menées. Le gouvernement doit faire le sien en sécurisant ses réseaux de communication (cryptage obligatoire, numéro virtuel…) et surtout en mettant à l’abri les développeurs nationaux qui seront les garants de la souveraineté numérique.

Alain Bauer est professeur de criminologie au Conservatoire National des Arts et Métiers, New York et Shanghai. Il publiera prochainement un  «  Dictionnaire des espionnes et des espions  » (Gründ).

Bank of America: Vers tout technologique

 Bank of America : vers un tout technologique

 

Un article du Wall Street Journal prévoit qu’environ 85 % des particuliers devraient utiliser une combinaison de services bancaires physiques et numériques dans les années à venir.

Les responsables de la technologie de Bank of America souhaitent lancer de nouvelles initiatives dans les années à venir en s’appuyant sur l’analyse de données, les réseaux mobiles 5G et éventuellement l’impression 3D, la demande pour les services numériques de la banque ayant grimpé en flèche pendant la pandémie.

La banque a consacré environ 3 milliards de dollars par an aux projets de nouvelles technologies au cours des dix dernières années et le budget devrait être porté à 3,5 milliards de dollars cette année, selon l’entreprise. Beaucoup de ces initiatives ont abouti à la création de services numériques, qui ont été très demandés lors de la pandémie.

Pendant les périodes de confinements et de restrictions des contacts physiques, la banque basée à Charlotte, en Caroline du Nord, dit avoir observé une hausse du nombre de clients utilisant des services numériques tels que son assistant virtuel Erica, son service de virement en ligne Zelle et son système de dépôt de chèques par mobile.

Les responsables commerciaux et technologiques de la banque ont évoqué la croissance du digital au sein de l’établissement lors d’un événement virtuel lundi et ont déclaré qu’ils exploraient de nouveaux moyens d’innover et de répondre à la demande de technologie.

« La demande pour le numérique est désormais un élément avec lequel compter. La question est donc comment servir les clients de davantage de façons », a établi Aditya Bhasin, directeur des systèmes d’information (DSI) de Bank of America pour les particuliers, les petites entreprises et la gestion de patrimoine.

L’utilisation des services numériques a progressé dans le secteur bancaire pendant la pandémie, en partie parce que certaines agences étaient fermées pour limiter la propagation du virus, a rappelé Jason Malo, analyste en chef pour la société de recherche en technologie Gartner.

La tendance devrait perdurer, mais cela ne signifie pas que les clients cesseront d’aller à la banque une fois la pandémie terminée, selon Jason Malo. Environ 85 % des particuliers devraient utiliser une combinaison de services bancaires physiques et numériques dans les années à venir, a-t-il expliqué. Cela veut dire, a-t-il conclu, que les banques devraient continuer à développer des outils et services physiques et numériques.

Erica, l’assistant virtuel de la banque, compte plus de 20 millions d’utilisateurs à ce jour, contre environ 10 millions fin 2019, selon l’entreprise. Cet outil basé sur l’IA peut aider les clients à suivre leurs dépenses récurrentes, recevoir des rappels de factures, consulter le solde de leur compte et obtenir un aperçu hebdomadaire de leurs dépenses, entre autres fonctionnalités.

L’utilisation de Zelle a également augmenté au premier trimestre, avec 90 % des versements commerciaux et d’entreprises effectués par le biais de ce service. Selon les dirigeants de la banque, l’activité numérique chez les adultes d’environ 55 ans et plus est celle qui a connu la plus forte augmentation pendant la pandémie.

Pour Cathy Bessant, directrice des opérations et de la technologie chez Bank of America, l’une des avancées les plus prometteuses est l’impression en 3D, un processus permettant d’imprimer les objets en trois dimensions. Cette technologie peut être utilisée dans le cadre d’une méthode de fabrication répartie reliée par la technologie, qui éviterait à la banque de se reposer sur un seul site pour fabriquer les produits, a-t-elle déclaré. Par exemple, a-t-elle expliqué, l’impression 3D pourrait servir à imprimer des cartes bancaires au cas où l’un des sites de production de Bank of America doive rester fermé en raison d’une catastrophe naturelle. « Cette technologie est bien plus importante que ne le pensent la plupart des gens », a souligné Cathy Bessant.

La banque n’a pas encore trouvé de cas d’utilisation claire pour la blockchain, la technologie de stockage d’information derrière les cryptomonnaies, a indiqué Cathy Bessant.

Lors de l’événement, Cathy Bessant et David Reilly, DSI de la division Global Banking and Markets de la banque, se sont également exprimés au sujet du potentiel de la 5G et de sa capacité à relier les zones isolées à Internet.

Cette technologie promet d’accroître les vitesses de téléchargement de vidéo sur téléphone mobile et de faire travailler plus vite et plus efficacement des appareils comme des drones ou des casques de réalité virtuelle.

« Cela ouvre de nouvelles possibilités d’applications, de vidéo, de nouvelles façons d’interagir avec les clients », a commenté David Reilly.

Bank of America concentre également ses efforts sur l’utilisation de l’analyse des données et des techniques d’intelligence artificielle pour continuer de tirer des informations pertinentes des quantités massives de données, tout en protégeant la vie privée des individus, a-t-il expliqué. « Les données restent sans doute la plus grosse ressource inexploitée dans des entreprises comme la nôtre », a conclu David Reilly.

Les initiatives en matière d’analyse des données pourraient aider la banque à mieux adapter ses conseils financiers à chacun de ses 66 millions de clients particuliers et petites entreprises, au-delà de ce que fait actuellement l’assistant virtuel, Erica. « Agir de manière personnelle et intime pour nos clients, c’est ça notre avenir », a résumé Nikki Katz, responsable de la conception numérique de la banque.

(Traduit à partir de la version originale en anglais par Astrid Mélite)

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol