Archive pour le Tag 'artificielle'

Page 4 sur 13

Société-La fin de homme face à l’intelligence artificielle ?

Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Intelligence artificielle–danger pour l’espèce humaine ?

Intelligence artificielle–danger pour l’espèce humaine ?

Société- l’IA , menace pour l’espèce humaine ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société-La fin de l’homme face à l »intelligence artificielle ?

Société-La fin de l’homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

IA-Les risques de l’intelligence artificielle non maîtrisée

IA-Les risques de l’intelligence artificielle non maîtrisée

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

« Il y a quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

LES EXPERTS DÉPASSÉS

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

UNE CONFIANCE EN DÉLIQUESCENCE

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

UNE FUITE EN AVANT DÉBRIDÉE

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

Sciences-Innovation et intelligence artificielle : vigilance

Sciences-Innovation et intelligence artificielle : vigilance

Avec le développement exponentiel des capacités de l’Intelligence Artificielle, humains et machines sont-ils amenés à s’opposer, voire à se faire la guerre, comme le prédisent depuis longtemps certains auteurs de SF ? S’il est certain que le futur ne ressemblera en rien au présent, personne ne peut aujourd’hui sérieusement prétendre prévoir l’issue des fulgurants progrès de l’IA. Raison de plus pour être vigilants. Au quotidien. Ce devoir de vigilance concerne chaque jour chacun d’entre nous. Par Alain Conrard, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI)​ dans la Tribune

(Crédits : DR)
En général, une chronique est l’expression d’un point de vue qui, lorsqu’il est bien mené, conduit à une conclusion, forte si possible. Autant vous prévenir tout de suite : cette chronique ne débouchera sur aucune conclusion. Tout simplement parce que son sujet est aujourd’hui si complexe et si ouvert – et surtout si indéterminé – qu’il semble impossible d’y apposer sérieusement une conclusion. Même pour un spécialiste et praticien au quotidien de l’innovation comme moi.

Son sujet ? Le développement exponentiel des capacités des IA est-il nécessairement bénéfique pour les humains et/ou, s’il n’est pas canalisé, contient-il un « risque existentiel » (pour reprendre le concept de Nick Bostrom, directeur du Future of Humanity Institute) pour l’humanité.

Soit dit en passant, et sans aucune spoiler alert, il peut d’ailleurs parfaitement être bénéfique un temps pour les humains (individuellement ou culturellement) et constituer à terme un risque existentiel pour l’humanité. Et, pour complexifier le tout, l’optimisme le plus béat et le pessimisme le plus sombre sur ce sujet cohabitent parfois chez les mêmes personnes.

Ce qui est certain, c’est qu’en raison du potentiel de nouveauté et de transformation dont elle est porteuse, à travers les nouvelles frontières qu’elle établit et fait évoluer en permanence, l’innovation génère toujours par définition des possibilités de risque. Le nucléaire, par exemple, a pris le dessus sur son créateur à certaines occasions (catastrophes de Three Mile Island, Tchernobyl ou encore Fukushima).

Plus on donne de place à la technologie, plus on expose l’humanité ou le plus grand nombre à l’éventualité de dérives. Malgré ses vertus, le nucléaire contient plus de risques que le charbon, les possibles dérives de l’IA peuvent-elles être à leur tour encore plus dangereuses ?

On sait que l’Intelligence Artificielle va plus vite, plus loin et plus longtemps. On sait que le machine learning peut, comme son nom l’indique, développer de façon autonome une algorithmique de plus en plus élitiste, de plus en plus fine, de plus en plus juste. En partant de ce constat, que peut-on dire ? Bien que conscients de la situation actuelle et de l’état des forces en présence, est-on pour autant capables d’anticiper avec pertinence leur évolution ? Dans sa totalité, je n’en suis pas sûr. Est-on capables de mesurer tous les impacts ? Je n’en suis pas sûr non plus. Cette incertitude dans la prévisibilité de l’évolution est la partie la plus inquiétante de cette problématique. Pourtant, nombreux sont ceux qui prennent aujourd’hui la parole pour raconter avec assurance de quoi le futur sera fait.

En fait les humains ne sont pas très doués pour prévoir les progressions exponentielles (« L’intuition humaine est mauvaise pour prévoir les courbes exponentielles » constate Sam Altman, le PDG d’OpenAI). Donc, les points de vue sur l’avenir de l’IA, et par conséquent sur le bon usage de l’innovation, restent conjecturaux pour une large part. En fait, ils ne sont généralement que la projection naïve dans le futur de nos aprioris. Selon que l’on est confiant dans la capacité des humains à vouloir le bien (le leur ou celui des autres) ; selon que l’on est optimiste ou pessimiste ; selon que l’on a confiance ou pas dans le politique pour prendre en charge et régler les problèmes de l’humanité ; selon que l’on a une foi sans réserve dans la capacité de la science à faire le bien ; selon que nos récits projectifs sont utopiques ou dystopiques ; etc.

Ainsi, les transhumanistes ou les long-termistes diront que l’hybridation entre les humains et les machines ne peut qu’augmenter positivement l’humanité ; les technophiles inconditionnels, que la technologie ne saurait être mauvaise ; les sceptiques, que rien de bon ne peut sortir d’un progrès aussi rapide ; les industriels de l’IA, que leurs machines sont la clé du bonheur de l’humanité ; les politiques, qu’il suffit de légiférer pour régler le problème ; les apprentis sorciers ou ceux qui aiment le goût du risque, qu’émettre des réserves ne fait que ralentir inutilement le mouvement, et qu’il sera toujours temps de réfléchir plus tard.

Quoi qu’il en soit, ce que l’on en dit (ou ce que l’on en pense) dépend largement des intérêts de pouvoir qui sont engagés.

Si l’IA est nouvelle, l’inquiétude générée par les machines ne l’est pas. Même si elles étaient moins concrètes qu’aujourd’hui, on se posait les mêmes questions dès les débuts de la robotique. On faisait déjà part des mêmes craintes : est-ce qu’en se développant, le robot allait inéluctablement dépasser l’être humain ? Est-ce que, tel un Frankenstein électronique doté de colossaux réseaux de neurones et de capacités de calcul démesurées, l’humanoïde allait détrôner l’humain qui l’a créé ? La philosophie avait aussi posé des ponts théoriques entre le vivant et l’univers machinique, permettant mentalement le passage de l’un à l’autre, notamment avec le concept d’animal-machine formulé par Descartes, puis, au siècle suivant, avec L’Homme-Machine de La Mettrie. Pourtant, l’hypothèse réelle, politique, culturelle, restait à l’époque encore très lointaine. L’IA nous confronte à un risque réel. La nature (ou tout du moins l’intensité) de l’inquiétude a changé.

La zone d’incertitude s’est elle-même modifiée : tout va changer, c’est certain, mais modalités et ampleur du changement restent incertaines. Le futur ne ressemblera en rien au présent, mais ni les zones ni l’ampleur des impacts sont pour l’instant vraiment prévisibles. Le grand changement, la grande bascule, est-ce que c’est maintenant, ou jamais, ou dans 10 ans ? Qui peut le dire avec certitude aujourd’hui ?

De « 1984 » au « Meilleur des mondes » en passant par « Bienvenue à Gattaca », la littérature ou le cinéma nous ont depuis longtemps mis en garde : les techno-utopies sont dangereuses lorsqu’on y adhère sans mesure.

Il ne suffit donc pas de dire « IA qu’à ». Cette question contient une telle épaisseur de complexité et d’indétermination qu’elle défie pour l’instant toute conclusion péremptoire.

« Que faire ? », demandait Lénine pour savoir quelle suite à donner à la révolution, et à quelle condition elle pouvait réussir. La question se pose pour tout mouvement de ce type, et le digital ou l’IA sont autant de révolutions, plus aptes encore à transformer le monde en profondeur que les modalités politiques qui les ont précédées. Il n’y a pas aujourd’hui de réponse générale à cette question.

Pour certains, l’arme de protection absolue contre l’emprise des machines tient en un mot : légiférer. Mais qui peut prétendre qu’une IA devenue hyper-intelligente et parfaitement autonome restreindra docilement son pouvoir parce qu’on lui dira que la loi l’interdit ?

On n’empêchera par ailleurs jamais personne de créer l’invention de trop, celle qu’il n’aurait jamais fallu concevoir, celle qui fait basculer l’ensemble d’une société dans une autre dimension porteuse de dangers. On n’évitera pas que, dotés de moyens importants, certains mettent en place des projets « toxiques ». Aujourd’hui, en effet, les dérives possibles sont alimentées en grande partie par les perspectives de profit. D’énormes masses d’argent sont en effet aimantées par ces secteurs. Une partie de ces gigantesques financements rencontrera nécessairement des projets hasardeux.

La bonté de la plupart des êtres humains ne s’exprime souvent que dans la limite de l’expression de leur intérêt. Un créateur saura-t-il résister à ce qu’il peut inventer, même si cela contrevient au bien commun ou aux exigences du citoyen ? Rien n’est moins sûr. Le plaisir de la création prévaut souvent sur tout. Le remords ne vient éventuellement qu’après, comme pour Oppenheimer, le père de la bombe atomique après l’expérience de Hiroshima, ou pour Alfred Nobel, l’inventeur de la dynamite. Les regrets viennent toujours trop tard. Les inventeurs de l’IA auront-ils les mêmes remords ? Certains d’entre eux émettent déjà de fortes réserves (Yoshua Bengio, l’un des pères de l’IA) ou des inquiétudes majeures (Geoffrey Hinton, pionnier de l’IA). En attendant, rien ne semble pouvoir arrêter son développement. Et il y a sans doute une bonne dose d’hypocrisie ou d’opportunisme pour quelqu’un comme Sam Altman de créer et développer Chat GPT tout en appelant en même temps à la régulation.

Il ne faut donc pas être naïf, et ne pas se laisser endormir par des discours lénifiants ou exagérément rassurants. Il faut accepter le progrès avec enthousiasme, tout en faisant preuve d’une extrême vigilance quant à ses conséquences.

Les artefacts sont toujours le reflet d’une époque, et disent toujours quelque chose sur elle. L’IA dit en même temps notre incroyable degré de sophistication technologique, notre dépendance au numérique et notre capacité à dénier les risques liés à ce que nous inventons.

En fait, les machines, c’est nous. Elles sont à notre image. Mieux : elles sont un miroir. Il peut être neutre ou grossissant ou déformant. Il peut aussi, comme dans certains contes, donner une image de l’avenir. C’est pour cette raison que le développement de l’IA concerne tout le monde.

Personne aujourd’hui ne peut prétendre détenir « la » solution pour la maîtrise de sa progression. Mais l’absence temporaire de solution ne doit pas pour autant conduire à la résignation.

Bien que cela soit difficile, il faut essayer d’éveiller le plus grand nombre à la certitude du risque lié à ces technologies surpuissantes. Certains ont d’autres urgences ou d’autres priorités quand d’autres ne se sentent pas impliqués ou ne voient pas comment ils pourraient agir. Le simple fait de se sentir intimement touché par ces phénomènes (car objectivement nous le sommes absolument tous) est déjà un début de réflexion.

Hormis une prise en compte systématique du risque, voire dans le meilleur des cas un devoir d’alerte, on n’a sans doute pas encore trouvé la solution pour éliminer ou minorer de potentiels dangers liés aux dérives de l’innovation. Pour l’instant, la seule piste est d’attirer l’attention du plus grand nombre sur tous les effets (aussi bien positifs que négatifs) de ces phénomènes. Et de regarder avec vigilance comment bâtir et utiliser des systèmes porteurs de la plus grande valeur ajoutée.

Une prise de conscience individuelle autant que collective est donc essentielle. Chacun d’entre nous est concerné, et devrait se poser cette question chaque jour, à chaque utilisation d’une innovation : est-ce bien ? Est-ce que la machine que j’utilise renforce le bien commun ? Est-ce que l’algorithme ou le dispositif que je suis en train d’inventer présente des risques ? Est-ce que la politique que je mène ou que je propose permet de guider les réflexions et de conscientiser

S’il n’y a aujourd’hui pas de grande réponse sérieuse, rien n’interdit en attendant à chacun d’apporter sa petite réponse.

_____

(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn).

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

L’intelligence artificielle : quel danger ?

L’intelligence artificielle : quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens
En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

123456...13



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol