Archive pour le Tag 'Intelligence'

Page 3 sur 8

Sciences-Innovation et intelligence artificielle : vigilance

Sciences-Innovation et intelligence artificielle : vigilance

Avec le développement exponentiel des capacités de l’Intelligence Artificielle, humains et machines sont-ils amenés à s’opposer, voire à se faire la guerre, comme le prédisent depuis longtemps certains auteurs de SF ? S’il est certain que le futur ne ressemblera en rien au présent, personne ne peut aujourd’hui sérieusement prétendre prévoir l’issue des fulgurants progrès de l’IA. Raison de plus pour être vigilants. Au quotidien. Ce devoir de vigilance concerne chaque jour chacun d’entre nous. Par Alain Conrard, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI)​ dans la Tribune

(Crédits : DR)
En général, une chronique est l’expression d’un point de vue qui, lorsqu’il est bien mené, conduit à une conclusion, forte si possible. Autant vous prévenir tout de suite : cette chronique ne débouchera sur aucune conclusion. Tout simplement parce que son sujet est aujourd’hui si complexe et si ouvert – et surtout si indéterminé – qu’il semble impossible d’y apposer sérieusement une conclusion. Même pour un spécialiste et praticien au quotidien de l’innovation comme moi.

Son sujet ? Le développement exponentiel des capacités des IA est-il nécessairement bénéfique pour les humains et/ou, s’il n’est pas canalisé, contient-il un « risque existentiel » (pour reprendre le concept de Nick Bostrom, directeur du Future of Humanity Institute) pour l’humanité.

Soit dit en passant, et sans aucune spoiler alert, il peut d’ailleurs parfaitement être bénéfique un temps pour les humains (individuellement ou culturellement) et constituer à terme un risque existentiel pour l’humanité. Et, pour complexifier le tout, l’optimisme le plus béat et le pessimisme le plus sombre sur ce sujet cohabitent parfois chez les mêmes personnes.

Ce qui est certain, c’est qu’en raison du potentiel de nouveauté et de transformation dont elle est porteuse, à travers les nouvelles frontières qu’elle établit et fait évoluer en permanence, l’innovation génère toujours par définition des possibilités de risque. Le nucléaire, par exemple, a pris le dessus sur son créateur à certaines occasions (catastrophes de Three Mile Island, Tchernobyl ou encore Fukushima).

Plus on donne de place à la technologie, plus on expose l’humanité ou le plus grand nombre à l’éventualité de dérives. Malgré ses vertus, le nucléaire contient plus de risques que le charbon, les possibles dérives de l’IA peuvent-elles être à leur tour encore plus dangereuses ?

On sait que l’Intelligence Artificielle va plus vite, plus loin et plus longtemps. On sait que le machine learning peut, comme son nom l’indique, développer de façon autonome une algorithmique de plus en plus élitiste, de plus en plus fine, de plus en plus juste. En partant de ce constat, que peut-on dire ? Bien que conscients de la situation actuelle et de l’état des forces en présence, est-on pour autant capables d’anticiper avec pertinence leur évolution ? Dans sa totalité, je n’en suis pas sûr. Est-on capables de mesurer tous les impacts ? Je n’en suis pas sûr non plus. Cette incertitude dans la prévisibilité de l’évolution est la partie la plus inquiétante de cette problématique. Pourtant, nombreux sont ceux qui prennent aujourd’hui la parole pour raconter avec assurance de quoi le futur sera fait.

En fait les humains ne sont pas très doués pour prévoir les progressions exponentielles (« L’intuition humaine est mauvaise pour prévoir les courbes exponentielles » constate Sam Altman, le PDG d’OpenAI). Donc, les points de vue sur l’avenir de l’IA, et par conséquent sur le bon usage de l’innovation, restent conjecturaux pour une large part. En fait, ils ne sont généralement que la projection naïve dans le futur de nos aprioris. Selon que l’on est confiant dans la capacité des humains à vouloir le bien (le leur ou celui des autres) ; selon que l’on est optimiste ou pessimiste ; selon que l’on a confiance ou pas dans le politique pour prendre en charge et régler les problèmes de l’humanité ; selon que l’on a une foi sans réserve dans la capacité de la science à faire le bien ; selon que nos récits projectifs sont utopiques ou dystopiques ; etc.

Ainsi, les transhumanistes ou les long-termistes diront que l’hybridation entre les humains et les machines ne peut qu’augmenter positivement l’humanité ; les technophiles inconditionnels, que la technologie ne saurait être mauvaise ; les sceptiques, que rien de bon ne peut sortir d’un progrès aussi rapide ; les industriels de l’IA, que leurs machines sont la clé du bonheur de l’humanité ; les politiques, qu’il suffit de légiférer pour régler le problème ; les apprentis sorciers ou ceux qui aiment le goût du risque, qu’émettre des réserves ne fait que ralentir inutilement le mouvement, et qu’il sera toujours temps de réfléchir plus tard.

Quoi qu’il en soit, ce que l’on en dit (ou ce que l’on en pense) dépend largement des intérêts de pouvoir qui sont engagés.

Si l’IA est nouvelle, l’inquiétude générée par les machines ne l’est pas. Même si elles étaient moins concrètes qu’aujourd’hui, on se posait les mêmes questions dès les débuts de la robotique. On faisait déjà part des mêmes craintes : est-ce qu’en se développant, le robot allait inéluctablement dépasser l’être humain ? Est-ce que, tel un Frankenstein électronique doté de colossaux réseaux de neurones et de capacités de calcul démesurées, l’humanoïde allait détrôner l’humain qui l’a créé ? La philosophie avait aussi posé des ponts théoriques entre le vivant et l’univers machinique, permettant mentalement le passage de l’un à l’autre, notamment avec le concept d’animal-machine formulé par Descartes, puis, au siècle suivant, avec L’Homme-Machine de La Mettrie. Pourtant, l’hypothèse réelle, politique, culturelle, restait à l’époque encore très lointaine. L’IA nous confronte à un risque réel. La nature (ou tout du moins l’intensité) de l’inquiétude a changé.

La zone d’incertitude s’est elle-même modifiée : tout va changer, c’est certain, mais modalités et ampleur du changement restent incertaines. Le futur ne ressemblera en rien au présent, mais ni les zones ni l’ampleur des impacts sont pour l’instant vraiment prévisibles. Le grand changement, la grande bascule, est-ce que c’est maintenant, ou jamais, ou dans 10 ans ? Qui peut le dire avec certitude aujourd’hui ?

De « 1984 » au « Meilleur des mondes » en passant par « Bienvenue à Gattaca », la littérature ou le cinéma nous ont depuis longtemps mis en garde : les techno-utopies sont dangereuses lorsqu’on y adhère sans mesure.

Il ne suffit donc pas de dire « IA qu’à ». Cette question contient une telle épaisseur de complexité et d’indétermination qu’elle défie pour l’instant toute conclusion péremptoire.

« Que faire ? », demandait Lénine pour savoir quelle suite à donner à la révolution, et à quelle condition elle pouvait réussir. La question se pose pour tout mouvement de ce type, et le digital ou l’IA sont autant de révolutions, plus aptes encore à transformer le monde en profondeur que les modalités politiques qui les ont précédées. Il n’y a pas aujourd’hui de réponse générale à cette question.

Pour certains, l’arme de protection absolue contre l’emprise des machines tient en un mot : légiférer. Mais qui peut prétendre qu’une IA devenue hyper-intelligente et parfaitement autonome restreindra docilement son pouvoir parce qu’on lui dira que la loi l’interdit ?

On n’empêchera par ailleurs jamais personne de créer l’invention de trop, celle qu’il n’aurait jamais fallu concevoir, celle qui fait basculer l’ensemble d’une société dans une autre dimension porteuse de dangers. On n’évitera pas que, dotés de moyens importants, certains mettent en place des projets « toxiques ». Aujourd’hui, en effet, les dérives possibles sont alimentées en grande partie par les perspectives de profit. D’énormes masses d’argent sont en effet aimantées par ces secteurs. Une partie de ces gigantesques financements rencontrera nécessairement des projets hasardeux.

La bonté de la plupart des êtres humains ne s’exprime souvent que dans la limite de l’expression de leur intérêt. Un créateur saura-t-il résister à ce qu’il peut inventer, même si cela contrevient au bien commun ou aux exigences du citoyen ? Rien n’est moins sûr. Le plaisir de la création prévaut souvent sur tout. Le remords ne vient éventuellement qu’après, comme pour Oppenheimer, le père de la bombe atomique après l’expérience de Hiroshima, ou pour Alfred Nobel, l’inventeur de la dynamite. Les regrets viennent toujours trop tard. Les inventeurs de l’IA auront-ils les mêmes remords ? Certains d’entre eux émettent déjà de fortes réserves (Yoshua Bengio, l’un des pères de l’IA) ou des inquiétudes majeures (Geoffrey Hinton, pionnier de l’IA). En attendant, rien ne semble pouvoir arrêter son développement. Et il y a sans doute une bonne dose d’hypocrisie ou d’opportunisme pour quelqu’un comme Sam Altman de créer et développer Chat GPT tout en appelant en même temps à la régulation.

Il ne faut donc pas être naïf, et ne pas se laisser endormir par des discours lénifiants ou exagérément rassurants. Il faut accepter le progrès avec enthousiasme, tout en faisant preuve d’une extrême vigilance quant à ses conséquences.

Les artefacts sont toujours le reflet d’une époque, et disent toujours quelque chose sur elle. L’IA dit en même temps notre incroyable degré de sophistication technologique, notre dépendance au numérique et notre capacité à dénier les risques liés à ce que nous inventons.

En fait, les machines, c’est nous. Elles sont à notre image. Mieux : elles sont un miroir. Il peut être neutre ou grossissant ou déformant. Il peut aussi, comme dans certains contes, donner une image de l’avenir. C’est pour cette raison que le développement de l’IA concerne tout le monde.

Personne aujourd’hui ne peut prétendre détenir « la » solution pour la maîtrise de sa progression. Mais l’absence temporaire de solution ne doit pas pour autant conduire à la résignation.

Bien que cela soit difficile, il faut essayer d’éveiller le plus grand nombre à la certitude du risque lié à ces technologies surpuissantes. Certains ont d’autres urgences ou d’autres priorités quand d’autres ne se sentent pas impliqués ou ne voient pas comment ils pourraient agir. Le simple fait de se sentir intimement touché par ces phénomènes (car objectivement nous le sommes absolument tous) est déjà un début de réflexion.

Hormis une prise en compte systématique du risque, voire dans le meilleur des cas un devoir d’alerte, on n’a sans doute pas encore trouvé la solution pour éliminer ou minorer de potentiels dangers liés aux dérives de l’innovation. Pour l’instant, la seule piste est d’attirer l’attention du plus grand nombre sur tous les effets (aussi bien positifs que négatifs) de ces phénomènes. Et de regarder avec vigilance comment bâtir et utiliser des systèmes porteurs de la plus grande valeur ajoutée.

Une prise de conscience individuelle autant que collective est donc essentielle. Chacun d’entre nous est concerné, et devrait se poser cette question chaque jour, à chaque utilisation d’une innovation : est-ce bien ? Est-ce que la machine que j’utilise renforce le bien commun ? Est-ce que l’algorithme ou le dispositif que je suis en train d’inventer présente des risques ? Est-ce que la politique que je mène ou que je propose permet de guider les réflexions et de conscientiser

S’il n’y a aujourd’hui pas de grande réponse sérieuse, rien n’interdit en attendant à chacun d’apporter sa petite réponse.

_____

(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn).

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

Intelligence artificielle et démocratie

Intelligence artificielle et démocratie

par

Anthony Gibert

Conseiller en relations publiques (Cabinet Vae Solis)

Thomas Coulom

Conseiller en relations publiques (Cabinet Vae Solis)


L’IA sera très présente dans la campagne présidentielle américaine en 2024, avec des vidéos bidonnées produites par le camp adverse. De quoi faire peser une menace sur la démocratie alertent, dans une tribune au « Monde », les deux conseillers en relations publiques Anthony Gibert et Thomas Coulom.

Le 25 avril, Joe Biden annonçait être candidat à sa réélection. Quelques heures à peine après l’annonce de l’actuel président des Etats-Unis, un premier clip entièrement généré par une intelligence artificielle (IA) était mis en ligne. Dans cette vidéo – réalisée par des opposants du camp républicain – défilent une série d’images dystopiques au réalisme saisissant imaginant une Amérique dévastée par la réélection de Joe Biden.

Il n’aura donc pas fallu une journée pour que l’IA s’empare de l’élection de 2024. Pas de doute, la présidentielle états-unienne sera placée sous le signe de la révolution technologique et de ses menaces. Les coups de force électoraux nés de disruptions informatiques sont, il faut le dire, monnaie courante depuis quinze ans outre-Atlantique.

La campagne de 2008 de Barack Obama avait ainsi été marquée par l’usage du big data afin d’optimiser le ciblage électoral. De la même manière, les équipes du candidat Trump s’étaient largement appuyées sur les dernières possibilités offertes par les algorithmes des géants du Web afin de diffuser leurs messages teintés de postvérité.

Un cocktail aussi explosif qu’incontrôlable
La génération de fausses images et vidéos par l’IA marque une nouvelle étape dans la relation trouble qu’entretiennent technologie et vie politique. Les possibilités offertes par l’intelligence artificielle, en se conjuguant aux précédentes révolutions technologiques, font courir un risque inédit aux prochaines élections.

Il est désormais inévitable d’anticiper la production et la diffusion massive et continue de contenus, extrêmement réalistes mais totalement artificiels, taillés pour choquer et désinformer. Ces éléments, couplés à l’usage des bases de données électorales sensibles, à l’image de celles construites par Cambridge Analytica, et à une juste maîtrise des algorithmes de diffusion sur Internet, formeront un cocktail aussi explosif qu’incontrôlable.

De nombreux risques supplémentaires induits par l’IA sont par ailleurs à envisager. Aujourd’hui, les outils qui s’appuient sur l’intelligence artificielle sont très largement interopérables et permettent en quelques clics de créer différents types d’artifices.

Société-Intelligence artificielle et emploi ?

Société-Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

 ChatGPT: une intelligence affabulatrice ?

 ChatGPT: une intelligence affabulatrice ?

Jean-Baptiste Fressoz, CNRS ,dans le Monde


L’intelligence artificielle peut-elle aider les chercheurs ? Non pas pour écrire des articles et formuler des arguments originaux – ChatGPT propose en général des réponses d’une banalité affligeante – mais au moins pour accomplir des recherches bibliographiques ? C’est dans cet esprit et sans a priori que j’ai questionné ChatGPT sur un point précis : l’évolution historique du nombre des maisons en bambou. Pourquoi cette curieuse question ? Parce que j’ai le sentiment que la diminution de l’intensité carbone de l’économie – il faut en 2020 presque deux fois moins de CO₂ pour générer un dollar de PIB mondial qu’en 1980, selon l’Agence internationale de l’énergie (« Global Energy Review : CO2 Emissions in 2021 », 2022) – cache le fait que les énergies fossiles se sont en réalité insinuées de plus en plus profondément dans la production matérielle.

L’agriculture a accru sa dépendance au pétrole et au méthane avec les progrès de la mécanisation et l’usage croissant d’engrais azotés ; la métallurgie devient plus gourmande en énergie avec la baisse de la teneur des minerais ; l’extension des chaînes de valeur accroît les kilomètres parcourus par chaque marchandise ou composant de marchandise, et donc le rôle du pétrole dans la bonne marche de l’économie. Ces phénomènes ont pour l’instant été masqués par l’efficacité croissante des machines et par le poids des services dans le produit national brut, mais ils n’en sont pas moins des obstacles majeurs sur le chemin de la décarbonation.

Les matériaux de construction fournissent un autre exemple : l’aluminium est plus intense en CO₂ que l’acier, le polyuréthane que la laine de verre, les panneaux de bois que les planches. Enfin, dans les pays pauvres, le béton remplace souvent des matériaux décarbonés comme la terre crue et… le bambou.

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Par Julie Martinez, rapporteure générale de la Commission France Positive dans la tribune


Nous sommes aujourd’hui à un moment charnière de notre histoire pour au moins deux raisons. La première concerne le bouleversement disruptif généré par la découverte du grand public de ChatGPT, chatbot conçu par la société américaine OpenAI. Alors que l’IA se développe à une vitesse fulgurante, elle impacte soudainement notre manière de communiquer et de prendre des décisions quotidiennes, y compris politiques (1).

La seconde raison est plus latente, elle couve en effet depuis quelques décennies, et concerne l’affaiblissement certain de notre modèle démocratique aux yeux des citoyens. L’évolution politique des dernières décennies exprime avec force les errances de notre démocratie libérale et la nécessité de renforcer notre vigilance collective pour la préserver des menaces qui l’affaiblissent, parmi lesquelles la désinformation. Sans nier les dangers liés à l’IA, que nous devons résoudre et encadrer urgemment, cette technologie pourrait être un allié solide des gouvernements dans la résolution de la crise démocratique que nous traversons aujourd’hui.

L’IA est actuellement un danger réel en matière de désinformation
Pour contrer des développements jugés trop rapides et dangereux pour l’humanité, un groupe de chercheurs en IA, dont font partie Stephen Hawking et Elon Musk, a lancé une pétition le mois dernier visant à obtenir une pause dans le développement de cette technologie (2). Ils appelaient à une réglementation internationale stricte pour encadrer le développement de l’IA, à la fois pour empêcher ses conséquences néfastes et favoriser son utilisation positive pour le bien de l’humanité.

Ces risques sont en effet majeurs (3), a fortiori dans un contexte d’affaiblissement de notre système démocratique, renforcé par la désinformation – ces fameuses « fake news » qui circulent déjà avec force en ligne. Comme l’a récemment souligné le Global Risks Report (4), la désinformation est devenue une menace majeure pour la stabilité politique et la confiance dans les institutions. Les réseaux sociaux et médias en ligne sont particulièrement vulnérables à ces manipulations, étant conçus pour maximiser l’engagement des utilisateurs en leur présentant des contenus viraux, susceptibles de les intéresser, indépendamment de leur véracité. Dans ce contexte, la désinformation est devenue une arme redoutable pour influencer l’opinion publique et perturber les processus démocratiques.

L’IA aggrave considérablement ces risques, en facilitant la génération automatisée de contenus falsifiés, de plus en plus sophistiqués. Les récents progrès dans le domaine des GAN (5) ont permis de créer des images et des vidéos hyper-réalistes, semant la confusion dans l’opinion publique, tel que l’illustre la génération d’une fausse photographie d’Emmanuel Macron devant des poubelles en feux pendant les dernières manifestations contre la réforme des retraites (6).

Pour protéger nos démocraties contre les conséquences désastreuses de la désinformation renforcée par l’IA, des mesures règlementaires doivent être prises urgemment – et les gouvernements dans le monde planchent déjà sur le sujet. Ces mesures juridiques, souvent ex-ante, apparaissent déjà comme trop tardives au regard des récents développements disruptifs de l’IA et mettent en évidence le décalage entre la législation et les avancées technologiques.

Orienter l’IA pour soigner notre démocratie
Dans notre quête pour réglementer l’IA, nous ne devons pas oublier l’alliée solide qu’elle peut être demain. L’avenir de notre démocratie dépend de la manière dont nous investirons collectivement aujourd’hui dans les « bonnes » finalités qu’elle doit poursuivre, en allant au-delà des quelques initiatives règlementaires internationales en cours qui visent souvent à limiter les effets négatifs générés par l’IA. Comme toute technologie, elle n’est en effet qu’un médium, puissant, permettant d’atteindre des finalités qui, elles, doivent être repensées. Plus particulièrement, il faudra augmenter nos efforts de recherche en civic tech démocratique, continuer d’inciter les plateformes en ligne à améliorer leurs politiques de lutte contre la désinformation et les citoyens à développer leur esprit critique et leur capacité à évaluer les sources d’information. Ces défis relevés, l’IA pourra contribuer à soigner notre démocratie du grand mal du siècle.

L’exemple de Taiwan est à cet égard particulièrement significatif. En recourant à l’IA pour lutter contre la désinformation, Taiwan est devenu l’un des gouvernements les plus avancés dans la mise en place de mécanismes numériques de protection de la démocratie. Face à une campagne de désinformation massive en 2018 menée par la Chine, visant à influencer les élections locales, le Commandement des forces d’information, de communication et d’électronique a été renforcé par des procédés utilisant de puissants algorithmes, permettant l’analyse en temps réel et la détection de fausses informations en ligne. Le système est également capable de prédire les sujets qui pourraient faire l’objet d’une désinformation dans l’avenir (7).

Rien n’est plus fragile que la démocratie. Des menaces similaires existent déjà sur notre territoire et nécessitent une action rapide et décisive de la part de nos gouvernements pour soigner notre mal démocratique, y compris par l’IA.

______

(1) Avertissant sur le tsunami technologique qui s’apprêtait à déferler sur le monde, Sam Altman – CEO d’OpenAI, concluait dès 2021 une de ses tribunes de la façon suivante : « Les changements à venir sont imparables. Si nous les accueillons et les planifions, nous pouvons les utiliser pour créer une société beaucoup plus juste, plus heureuse et plus prospère. L’avenir peut être d’une grandeur presque inimaginable. » (Traduction proposée par l’auteur). Sam Altman, Moore’s Law for Everything, 16 Mars 2021

(2) Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 Mars 2023

(3) O’Neil, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016

(4) Forum Economique Mondial, The Global Risks Report 2022, 17e Edition

(5) En francais, les réseaux antagonistes génératifs. Il s’agit d’une classe d’algorithmes d’apprentissage non supervisé.

(6) Si elles peuvent paraitre absurdes pour une partie de la population, ces images (- et bien d’autres !) ont un véritable impact et ont fait le tour du monde. Ces risques sont d’autant plus préoccupants que la confiance dans les institutions et les médias traditionnels est en déclin dans le monde.

(7) L’IA y est aussi utilisée pour renforcer la participation citoyenne grâce à une plateforme en ligne permettant aux citoyens de proposer des idées de politiques publiques et de voter pour celles qu’ils jugent les plus pertinentes. Les données collectées sont ensuite analysées par l’IA pour évaluer les opinions et décisions des citoyens, qui sont ensuite prises en compte dans le processus décisionnel gouvernemental.

Prospective- Intelligence artificielle et emploi ?

Prospective- Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

Intelligence artificielle et emploi ?

Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

Intelligence artificielle : trouver équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Rédiger un commentaire
À lire aussi
Decathlon
www.decathlon.fr
|
Sponsorisé

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol