Archive pour le Tag 'algorithmes.'

IA- Les algorithmes n’ont rien d’intelligent

IA- Les algorithmes n’ont rien d’intelligent

« Intelligence artificielle » est un mauvais anglicisme. Selon Laurent Daudet, cofondateur de LightOn, « les algorithmes que nous utilisons n’ont rien d’intelligent ». Pour ce professeur d’informatique et startuppeur, les progrès récents de l’IA sont néanmoins « fascinants ». ( dans les Echos ») . Laurent Daudet est physicien, docteur en sciences du signal. Enseignant chercheur en informatique depuis plus de vingt ans, il a cofondé la start-up LightOn qui développe des modèles d’intelligence artificielle générative. Il vient de cosigner, avec le dessinateur indien Appupen, le roman graphique « Dream Machine » (1).

Quel regard portez-vous sur l’engouement actuel autour de l’intelligence artificielle ?

Tout a démarré exactement le 30 novembre 2022, lorsqu’ OpenAI a ouvert ChatGPT au grand public. Bien sûr, pour nous, ce n’était pas tellement une surprise. Chez LightOn, on travaillait, depuis 2020 déjà, sur l’IA générative.

Les plus gros modèles ont maintenant plus de 100 milliards de paramètres. Tout l’art consiste à régler ces paramètres. Cela demande des milliers de serveurs informatiques pour les entraîner sur des bases de milliers de milliards de mots qui tournent en continu pendant plusieurs semaines. Si l’IA a toujours analysé de grandes quantités de données, désormais tout le monde a accès à une IA capable de créer du contenu d’une qualité quasi semblable à ce que peuvent produire des humains.

Quand ChatGPT est sorti, nous n’avons pas été surpris par la technique mais par l’interface et la rapidité d’adoption par le grand public. Tout d’un coup, l’IA est devenue un sujet de société.

 

« Intelligence artificielle » est-il un terme approprié, selon vous ?

C’est un mauvais anglicisme. « Intelligence », en anglais, c’est la collecte de l’information, au sens de renseignements ou de connaissances, et pas du tout l’intelligence au sens où on l’entend en français. Les algorithmes que nous utilisons n’ont rien d’intelligents, pas de sens moral, pas de capacité de planification, pas de raisonnement. C’est une suite de manipulations de caractères.

« Intelligence artificielle » , ce terme fait un peu peur. C’est assez prométhéen. Néanmoins, encore une fois, ce sont des outils extrêmement utiles mais pas intelligents. L’IA, ce sont des statistiques sous stéroïdes. Elle ne crée rien, elle reproduit.

L’IA est un accélérateur de la transition numérique, de la numérisation des process des entreprises

Vous avez longtemps été enseignant chercheur, comment êtes-vous devenu aussi entrepreneur et fondateur de LightOn ?

Je suis physicien de formation et j’ai travaillé une quinzaine d’années dans la physique des ondes. L’aventure LightOn est partie d’une collaboration de recherche sur l’utilisation de la photonique, c’est-à-dire de la lumière, pour effectuer certains calculs. Nous avons développé un processeur pour des calculs de l’IA en grandes dimensions.

Et à l’arrivée de GPT3 en 2020 , on s’est dit qu’on pouvait appliquer notre savoir-faire à l’entraînement de ces moteurs. LightOn a alors pivoté du hardware au software. Notre ambition est de rendre l’IA plus facile à utiliser, qu’elle fasse gagner du temps dans l’entreprise, du PDG au stagiaire.

Quelles sont vos activités précisément ?

Nous développons des « grands modèles de langage » (« LLM », pour Large Langage Model) sur des bases propriétaires, pour nos propres besoins ou ceux de nos clients, et que l’on interroge comme ChatGPT, par prompt. Notre modèle, que nous avons baptisé Alfred, est disponible en open source. Nous avons aussi développé une plateforme appelée Paradigm afin de gérer le cycle de vie de ces modèles en entreprise ; nous l’installons sur leurs propres serveurs pour garantir la confidentialité de leurs données.

Les applications sont nombreuses, comme pouvoir interroger des bases documentaires en langage naturel. Nous avons, par exemple, mis en place un chatbot de support informatique pour tous les collaborateurs du Conseil régional d’Ile-de-France. Notre modèle répond aux demandes en indiquant la procédure à suivre et cite ses sources, ce qui limite les risques d’hallucination.

Qu’a changé pour vous l’émergence de l’IA dans le débat public ?

On remercie OpenAI d’avoir éduqué le marché et le grand public. Depuis 2022, nous avons constaté une forte accélération de marché. Toutes les grandes entreprises se doivent aujourd’hui d’avoir une stratégie dans l’IA générative. Evidemment, toutes n’ont pas le même niveau de maturité. Mais l’IA est un accélérateur de la transition numérique , de la numérisation des process des entreprises.

Depuis cette accélération, LightOn a bien grandi et emploie désormais plus de 35 personnes. 2023 a été une très bonne année et nous a permis d’atteindre la rentabilité. Nous comptons une dizaine de clients grands comptes, dans la banque, les assurances et les services publics, des clients particulièrement sensibles à la souveraineté sur leurs données.

L’Europe semble encore à la traîne par rapport aux Etats-Unis et à la Chine. Pourra-t-elle rattraper son retard ?

Rattraper, je ne sais pas, mais quelque chose se passe qui me rend optimiste. La France a des atouts à faire valoir : nos talents, en particulier. On a d’excellentes formations en mathématiques, en physique, en ingénierie… et une bonne recherche universitaire.

Côté points faibles, on n’a pas de géant du numérique. Ce qui fait la Silicon Valley, ce sont les Gafam qui irriguent l’écosystème. Mais ça vient… Nous avons un écosystème dynamisé par une génération d’entrepreneurs de la tech qui réinvestissent dans les start-up.

Nous sommes loin d’une IA qui sache raisonner, d’une IA forte ou de la singularité

 

Quels messages vouliez-vous faire passer à travers « Dream Machine », le roman graphique que vous avez récemment publié ?

Cette BD est née de ma rencontre avec le dessinateur et coscénariste indien Appupen, qui était en résidence à Angoulême fin 2021. Il avait envie d’écrire quelque chose sur l’IA pour en expliquer les enjeux, et moi j’ai tout de suite aimé son univers graphique. Au début, ce devait être un livre de pure vulgarisation, mais notre éditeur a insisté pour que je m’inspire de ma vie d’entrepreneur. Le message principal est que l’IA, c’est très puissant mais que ce n’est pas de l’intelligence. Le jour où les gens comprendront cela, ils en auront moins peur.

La rapidité des progrès actuels ne vous effraie pas ?

Les progrès les plus récents sont fascinants. L’accélération est sidérante, et je ne suis pas naïf. Il ne faut pas avoir peur de la technologie, mais de la façon dont on peut l’utiliser, pour du contrôle social par exemple. Cette peur masque les enjeux réels et concrets des bouleversements portés par l’IA sur l’emploi, la formation, les monopoles économiques…

L’IA est aujourd’hui presque totalement privatisée. Quand j’ai commencé, elle était principalement développée dans les universités et peu dans les grandes entreprises. Aujourd’hui, c’est l’inverse. La grande majorité des systèmes d’IA sont le fait de grands acteurs privés qui ont chacun leur agenda.

Etes-vous favorable à une régulation ?

J’y suis favorable mais pas sur la technologie, seulement sur les usages. On n’arrêtera pas la recherche. Il est important qu’il y ait un code de la route comme pour la voiture. Mais il sera très difficile de réguler les capacités des modèles, notamment avec le développement des IA polyvalentes génératives. L’essentiel pour moi est que l’IA Act prévoit qu’on ne puisse pas déployer d’IA qui prenne des décisions automatiques ayant un impact sur la vie des gens.

Vous croyez possible l’avènement de la singularité d’une IA réellement intelligente ?

Il faut être modeste dans nos prévisions. Je me souviens du film « Her » . On se disait à sa sortie, en 2013, que c’était de la science-fiction et pourtant, aujourd’hui, les agents conversationnels sont là. L’IA va rendre ces agents de plus en plus efficients pour nous simplifier la vie, et de plus en plus individualisés. Ils vont devenir de véritables assistants personnels adaptés à chacun.

S’il y a seulement cinq ans, je vous avais dit que les créatifs seraient un jour concurrencés par des systèmes génératifs, vous m’auriez dit que j’étais fou à lier. C’est pourtant une réalité aujourd’hui. De même, tous les métiers à base de texte seront impactés par l’IA. La machine est très bonne pour embrasser des masses de données. Elle va bouleverser la science : la génomique et la création de molécules, les nouveaux matériaux, l’ingénierie…

Mais je ne crois pas au risque existentiel pour l’humanité. C’est de la science-fiction. Nous sommes loin d’une IA qui sache raisonner, d’une IA forte ou singulière. J’ai tendance à ne pas y croire, ou alors c’est très très loin de nous.

Internet : Renforcer l’autonomie des consommateurs face aux algorithmes

Internet : Renforcer l’autonomie des consommateurs face aux algorithmes

 

Le professeur de marketing Ronan de Kervenoael suggère, dans une tribune au « Monde », de s’appuyer pour des achats en ligne sur des communautés de consommateurs plutôt que sur des algorithmes.

 

Comment choisir un restaurant ? une location de vacances ? une machine à laver ? un paquet de biscuits ? La majorité des consommateurs fait aujourd’hui appel à des comparateurs en ligne pour les guider dans leurs décisions, confiant leur sort à des algorithmes pour tous ces microchoix de la vie quotidienne. Les suggestions qu’ils reçoivent tiennent compte des disponibilités des produits et services, de leurs prix, de quelques-unes de leurs caractéristiques, et surtout de nombreux avis d’anciens clients.Ce système, qui paraît aujourd’hui aller de soi, est pourtant de construction récente et devrait être amené à évoluer assez vite. Les interactions des consommateurs avec les « conseillers » algorithmiques en ligne sont en effet assez pauvres. Même si certains outils tiennent compte des achats passés, les préconisations prennent peu ou pas en considération les valeurs personnelles des individus.

Les préconisations ne les incitent pas non plus spécialement à agir de manière responsable. Elles excluent toute relation humaine, toute chaleur, toute émotion. Mais c’est surtout la prolifération de faux avis mis en ligne par des officines spécialisées qui remet en cause la crédibilité de ce système. Une application populaire comme Yuka suggère aujourd’hui de nouvelles pistes.

L’application Yuka aide les consommateurs à se décider dans les rayons alimentaires et cosmétiques, mais elle le fait en allant au-delà d’un comparateur de prix basique : elle met en lumière les aliments les plus sains en s’appuyant sur la recherche scientifique et promeut des valeurs parfois en avance sur la législation (« Food choice and the epistemic value of the consumption of recommender systems : the case of Yuka’s perceived value in France », Rajibul Hasan, Sara Kemari, Ronan de Kervenoael et Alexandre Schwob, Behaviour & Information Technology, nos 1-20, 2023).

Cette application est particulièrement intéressante, car elle s’appuie sur une large communauté de consommateurs qui s’implique, échange sur les forums, fournit des données, et qui a réussi, de manière indirecte, à peser sur les industriels de l’agroalimentaire et sur l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail.

Chine : la police des comportements par les algorithmes

Chine : la police des comportements par les algorithmes

Le professeur en gestion du risque Charles Cuvelliez et l’expert en cryptographie Jean-Jacques Quisquater décryptent, dans une tribune au « Monde », le texte adopté par les autorités chinoises pour assurer la régulation du fonctionnement d’Internet, à la fois par les entreprises et par les usagers.

 

Tribune. 

 

Si vous pensiez que l’Union européenne était la championne de la régulation, avec le Digital Service Act (DSA) et le Digital Market Act (DMA), sans compter le Règlement général sur la protection des données (RGPD), détrompez-vous.

La Chine vient de la dépasser avec un texte mis en consultation à l’été 2021 et en application à compter du 1er mars. Il est passé inaperçu en Europe, qui ne brille pas par la présence de ses champions numériques, mais pas aux Etats-Unis. Ce texte mettra fin aux dernières ambitions des « Big Tech » en Chine.

En quelques feuillets et trente articles (« Provisions on the Administration of Algorithm – Recommendations for Internet Information Services » – traduction officieuse sur ChinaLawTranslate), il s’agit d’un texte qui serait accompagné de milliers de pages et de dialogues en Europe, comme à chaque fois où celle-ci régule.

Les autorités chinoises veulent réguler les algorithmes de recommandation, qui font le quotidien d’Internet quand on y commande des produits ou on y consomme du contenu, qu’on cherche l’âme sœur, qu’on y effectue des recherches ou qu’on s’abreuve au fil d’info des réseaux sociaux (en d’autres termes, quand on consomme de l’Internet) : ces algorithmes ont fait le succès des Amazon, Google, Netflix, Facebook et Tinder.

Ce texte, qui ne contient que des « recommandations », impose à leurs équivalents chinois d’expliquer les règles qui ont servi de base aux algorithmes aux utilisateurs. Ces derniers peuvent demander leur désactivation ou exiger que leur profil ne soit pas pris en compte (une liberté bien cosmétique comparée au profilage social à points de tous par l’Etat et le parti). Tout contenu illégal mais aussi « négatif » doit être arrêté car il faut transmettre de l’énergie positive (sic).

Les utilisateurs doivent comprendre pourquoi ce contenu leur est présenté, y renoncer si besoin, pourquoi les résultats sont présentés dans cet ordre, etc. Bref, savoir si on les manipule (sans doute parce que c’est le monopole du Parti). Une trace du fonctionnement de ces algorithmes doit aussi être conservée six mois à des fins d’inspection des différents services de l’Etat (mais aucune allusion à une plainte d’un citoyen pour le faire).

La formulation des autorités chinoises sert de repoussoir : les algorithmes ne peuvent pas mettre en danger la sécurité nationale, ni les valeurs socialistes, ni perturber l’ordre économique ou social. Ils ne peuvent pas transmettre des informations prohibées, aller à l’encontre de l’éthique et la morale, que le texte traduit par « ni addiction, ni dépense compulsive ».

L’enjeu de l’accès aux algorithmes

L’enjeu de l’accès aux algorithmes 

 

Des chercheurs, des acteurs du numérique ainsi que des élus, rassemblés dans un collectif, demandent, dans une tribune au « Monde », à ce que la régulation européenne des nouvelles technologies en cours d’étude permette à la recherche d’accéder à leurs données.

 

Tribune.

 

Scandales à répétition, potentielles interférences aux processus démocratiques, augmentation continue de la haine en ligne, impacts psychologiques… Selon une étude publiée en ligne le 2 septembre 2020, les algorithmes sous-jacents au fonctionnement des plates-formes de contenus seraient la principale cause de la circulation rapide des contenus nuisibles en ligne.

La réalité est que nous ne savons rien, ou si peu. Nous ne pouvons plus accepter d’avoir, d’un côté, les grandes plates-formes ayant la maîtrise de leurs données et, de l’autre, les citoyens et les institutions cherchant à deviner ce que celles-ci contiennent : « Facebook et les autres plates-formes de la Silicon Valley ont perdu leur droit au secret », comme l’a déclaré, le 26 octobre 2021, devant le Sénat américain, le professeur de droit Nathaniel Persily. L’accès aux données est désormais un enjeu régalien.

Qui n’a pas déjà eu le sentiment d’être « pisté » par l’algorithme, à la suite d’une suggestion publicitaire presque trop opportune pour être le fruit du hasard ? D’avoir cliqué sur une vidéo s’interrogeant sur les origines du Covid-19 sur YouTube et se retrouver, trois vidéos plus tard, à interroger, cette fois, la réalité des pyramides ? De s’inquiéter pour la santé mentale et émotionnelle de son enfant, en permanence sur ses écrans ?

Selon un sondage publié en décembre 2021 par le Washington Post, 56 % des Américains pensent que Facebook a un impact négatif sur la société. Une autre étude d’opinion montrait qu’en 2019 seuls 20 % des Européens feraient confiance aux réseaux sociaux. L’entreprise elle-même reconnaît que 64 % des personnes qui ont rejoint des groupes extrémistes sur sa plate-forme l’auraient fait parce que des algorithmes les y ont dirigées. Et, chaque semaine, plus de 90 % des Américains et Européens utilisent ces mêmes réseaux.

Ces plates-formes sont nées dans un climat de naïveté et de laxisme quant aux usages d’un Internet ouvert et sans modération. L’utopie était trop belle. Car les réseaux sociaux ont des effets paradoxaux. Libérateur de parole lors du « printemps arabe » de 2010, ils peuvent aussi être des entraves à la démocratie, devenant des instruments de contrôle et de censure de la population pour certains gouvernements.

Dans cette course, entre mouvement féministe populaire ou complot antidémocratique, les algorithmes semblent ne pas trancher. Et dans l’assassinat de Samuel Paty, l’attentat antimusulman de Christchurch, ou l’attaque du Capitole, les réseaux sociaux sont incriminés. Se met alors en place une controverse sans issue : entre ceux qui accusent les réseaux sociaux d’alimenter tous les maux de nos sociétés et les plates-formes qui nient toute responsabilité mais verrouillent les accès à toute enquête basée sur les données liées à ces événements. Faisant de notre modèle démocratique la principale victime de ce débat stérile. C’est l’utopie déchue.

Chine : la régulation des comportements par les algorithmes

Chine : la régulation des comportements par les algorithmes

Le professeur en gestion du risque Charles Cuvelliez et l’expert en cryptographie Jean-Jacques Quisquater décryptent, dans une tribune au « Monde », le texte adopté par les autorités chinoises pour assurer la régulation du fonctionnement d’Internet, à la fois par les entreprises et par les usagers.

 

Tribune.

 

Si vous pensiez que l’Union européenne était la championne de la régulation, avec le Digital Service Act (DSA) et le Digital Market Act (DMA), sans compter le Règlement général sur la protection des données (RGPD), détrompez-vous.

La Chine vient de la dépasser avec un texte mis en consultation à l’été 2021 et en application à compter du 1er mars. Il est passé inaperçu en Europe, qui ne brille pas par la présence de ses champions numériques, mais pas aux Etats-Unis. Ce texte mettra fin aux dernières ambitions des « Big Tech » en Chine.

En quelques feuillets et trente articles (« Provisions on the Administration of Algorithm – Recommendations for Internet Information Services » – traduction officieuse sur ChinaLawTranslate), il s’agit d’un texte qui serait accompagné de milliers de pages et de dialogues en Europe, comme à chaque fois où celle-ci régule.

Les autorités chinoises veulent réguler les algorithmes de recommandation, qui font le quotidien d’Internet quand on y commande des produits ou on y consomme du contenu, qu’on cherche l’âme sœur, qu’on y effectue des recherches ou qu’on s’abreuve au fil d’info des réseaux sociaux (en d’autres termes, quand on consomme de l’Internet) : ces algorithmes ont fait le succès des Amazon, Google, Netflix, Facebook et Tinder.

Ce texte, qui ne contient que des « recommandations », impose à leurs équivalents chinois d’expliquer les règles qui ont servi de base aux algorithmes aux utilisateurs. Ces derniers peuvent demander leur désactivation ou exiger que leur profil ne soit pas pris en compte (une liberté bien cosmétique comparée au profilage social à points de tous par l’Etat et le parti). Tout contenu illégal mais aussi « négatif » doit être arrêté car il faut transmettre de l’énergie positive (sic).

Les utilisateurs doivent comprendre pourquoi ce contenu leur est présenté, y renoncer si besoin, pourquoi les résultats sont présentés dans cet ordre, etc. Bref, savoir si on les manipule (sans doute parce que c’est le monopole du Parti). Une trace du fonctionnement de ces algorithmes doit aussi être conservée six mois à des fins d’inspection des différents services de l’Etat (mais aucune allusion à une plainte d’un citoyen pour le faire).

La formulation des autorités chinoises sert de repoussoir : les algorithmes ne peuvent pas mettre en danger la sécurité nationale, ni les valeurs socialistes, ni perturber l’ordre économique ou social. Ils ne peuvent pas transmettre des informations prohibées, aller à l’encontre de l’éthique et la morale, que le texte traduit par « ni addiction, ni dépense compulsive ».

 

Les algorithmes sont neutres ? ( Aurélie Jean)

Les algorithmes sont neutres ? ( Aurélie Jean)

 

 

D‘une certaine manière, la scientifique Aurélie Jean considère que les algorithmes sont n à l’image de ceux qui les construisent. Un peu la même problématique que l’énergie atomique qui peut être utilisée à des fins de paix ou de guerre. La question ne serait pas celle de l’existence des technologies mais de leurs conditions d’utilisation. Cette appréciation n’évacue pas cependant les questions de transparence démocratique et de régulation si nécessaire. Sans parler des problèmes d’éthique qui peuvent se poser pour certaines technologies. NDLR

En France, Aurélie Jean s’est imposée comme la meilleure des vulgarisatrices de la science algorithmique. De livres à succès en interventions remarquées, cette experte de la morphologie mathématique ne cesse de ferrailler contre les idées reçues sur les algorithmes, trop souvent assimilés aux seules dérives des réseaux sociaux comme Facebook. Dans son dernier ouvrage, la scientifique rappelle qu’ils ne sont responsables de rien, n’étant pas une personnalité juridique. Ne redoutez donc pas une société qui serait contrôlée par des intelligences artificielles. Mais intéressez-vous aux concepteurs des programmes. Pour poursuivre son entreprise de démystification, l’Opinion a soumis au commentaire de la scientifique des assertions sur les algorithmes.

Les algorithmes sont des coupables idéaux…

Le procès contre un algorithme est impossible, même si j’ai souvent l’impression de jouer leur avocate [rires…] ! Les algorithmesn’ont aucune personnalité juridique, qu’elle soit physique ou morale. Derrière chaque algorithme en fonctionnement, il y a des hommes et des femmes qui ont pensé, développé, testé, vendu et utilisé cet algorithme. Des décisions bien humaines ont été prises tout au long du processus, sur la formulation du problème à résoudre, l’algorithme lui-même, des hypothèses, les données sur lesquelles le calibrer ou l’entraîner, ou encore des scénarios d’utilisation.

Ces décisions peuvent potentiellement être biaisées ou faussées, et mener à des discriminations technologiques – quand une catégorie de la population est écartée du fonctionnement de l’algorithme – ou à des erreurs. Un exemple de discrimination technologique tristement connu sont les premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les personnes de couleur. Le jeu de données sur lequel l’algorithme avait été entraîné, était constitué majoritairement – voire uniquement – d’individus à peaux claires. L’algorithme était alors dans l’impossibilité de reconnaître la présence d’un visage à peau noire.

Développement des algorithmes : Révolution économique ou éthique ?

 Développement des algorithmes : Révolution économique ou éthique ?

 

Un papier dans la Tribune pose la problématique de l’influence des algorithmes qui poseraient davantage de problèmes éthiques économiques (Extrait)

 

Une des craintes est que la robotisation rapide débouche sur un chômage massif. Or ce n’est pas ce qui est constaté. Certes, des métiers pénibles et répétitifs vont être supprimés, mais la robotisation permet aussi d’augmenter la productivité et de réduire les coûts, et crée aussi de nouveaux emplois que l’on ne soupçonnait pas. Le seul risque, important, est d’accroître les inégalités entre les travailleurs sous-qualifiés – les plus exposés – et ceux qui sont bien formés. Le Japon, Singapour et la Corée du Sud, qui comptent parmi les pays qui en pointe dans la robotisation, n’ont pas de taux de chômage élevés.

Pour autant, les investissements publics dans cette numérisation vont davantage compenser le ralentissement mis sur ce secteur durant la pandémie, comme l’indique la baisse de 5,5% des ventes en 2020 de l’entreprise américaine Rockwell Automation, qui compte parmi les premiers fournisseurs mondiaux de robots.

La pandémie aura aussi montré tout l’intérêt d’avoir des robots pour réaliser certaines tâches en offrant une protection sanitaire durant ce type de crise, les robots à la différence des êtres humains ne propageant pas le virus.

C’est d’ailleurs à partir d’un tel exemple que le philosophe franco-canadien Martin Gibert, chercheur au Centre de recherche en éthique (CRÉ) et à l’Institut de valorisation des données (IVADO) à Montréal soulève les problèmes posés par le développement des algorithmes est éthique avant d’être économique.

Dans son ouvrage, « Faire la morale aux robots » (éd. Flammarion) (1), il part de l’hypothèse d’un monde qui aurait possédé une super IA qui, durant la crise sanitaire, aurait eu accès à toutes les données de tous les comportements en simultané. Cette IA aurait évalué le niveau de risque de la situation et pu en anticiper l’évolution. Nos gouvernants auraient ainsi pu prendre des décisions en connaissance de cause, et probablement sauvé des milliers de vies. Mais cette intrusion dans nos vies privées ne pose-t-elle pas une atteinte à notre intégrité?

Dans son ouvrage, Martin Gibert clarifie les termes du débat, en distinguant deux aspects de la question. Aujourd’hui, le débat éthique sur l’intelligence artificielle (IA) reste souvent cantonné au fait de savoir s’il faut accepter ou non des systèmes commandés par l’IA qui sont bons pour nous. Or il faudrait plutôt se demander dans le cadre d’une éthique des algorithmes quelle est la bonne manière de programmer les machines ou les robots, alors même que les avancées en matière d’IA sont en train de remettre en cause bien des présupposés, et posent de nouveaux problèmes. Au terme d’une argumentation rigoureuse, Martin Gibert défend une éthique de la vertu, comme étant la plus à même de répondre à ces défis car « ce n’est pas demain la veille qu’on pourra se défausser sur des machines de notre responsabilité politique et morale. »

C’est dans une optique similaire que deux ingénieurs proposent de voir dans la révolution numérique l’occasion de « rendre l’intelligence artificielle robuste », sous-titre de l’ouvrage de Lê Nguyên Hoang et El Mahdi El Mhamdi, intitulé « Le fabuleux chantier » (2). Comme ils le soulignent, la « révolution algorithmique » a cette particularité après l’invention du langage et de l’imprimerie d’accentuer l’externalisation de l’information dont se servent les individus. Or, ce qui est encore aujourd’hui difficile à appréhender, ce sont les effets secondaires de ces possibilités inédites, notamment en matière de science, de santé et de protection de l’environnement. Comme on le voit par exemple avec l’utilisation des réseaux sociaux dans le débat public, ce n’est pas toujours la qualité du savoir qui est mise en avant mais davantage certains travers, comme la circulation d’idées fausses qui répétées ad nauseam conduisent à une vision biaisée du monde, à l’instar de la pensée complotiste.

Dans leur livre foisonnant d’exemples et d’initiatives, Lê Nguyên Hoang et El Mahdi El Mhamdi plaident eux aussi pour une prise en compte des enjeux éthiques, c’est-à-dire en posant des fins. Ils suggèrent nombre de pistes qui intègrent ces aspects en prenant en compte les limites et les vulnérabilités des algorithmes, dans le but de rendre le traitement de l’information « robustement bénéfique » pour le plus grand nombre, en s’inspirant notamment de la notion d’« altruisme efficace », conceptualisé par le philosophe australien Peter Singer. Un défi que l’un des auteurs, El Mahdi El Mhamdi, peut depuis la publication de l’ouvrage tester dans la réalité, puisqu’il a été recruté par Google pour plancher sur ce sujet en intégrant le projet de recherche Google Brain en Europe sur le deep learning.

 

____

(1) Martin Gibert, « Faire la morale aux robots », éditions Flammarion, collection Climats, 168 pages, 17 euros.

(2) Lê Nguyên Hoang et El Mahdi El Mhamdi « Le fabuleux chantier », éditions EDP Sciences, 296 pages, 39 euros.

Les algorithmes ont pris le pas sur la pensée

Les algorithmes ont pris le pas sur la pensée

 

 

Les algorithmes des réseaux sociaux régissent notre façon de voir le monde. 

Il est difficile de déterminer à quel moment précis nous avons cédé le contrôle de ce que nous voyons, lisons — et même pensons — aux plus grandes sociétés de réseaux sociaux.(Article du Wall Street Journal)

Je situe le point de bascule vers 2016. C’est l’année où Twitter et Instagram ont rejoint Facebook et YouTube dans le tout-algorithmique. Dirigées par des robots programmés pour retenir notre attention le plus longtemps possible, ces plateformes ont fait la promotion de choses que nous aurions très probablement recherchées, partagées ou appréciées — et ont masqué tout le reste.

Ce fut un adieu aux flux qui montraient tout de chaque personne que nous suivions — une sorte de fleuve interminable — et, ce, ordonné de manière chronologique. A la place, nous avons réceptionné des flux gonflés par les contenus les plus cliqués.

A la même époque, Facebook — dont le fil d’actualité est piloté par des algorithmes depuis 2009 — a masqué le réglage qui permet de rétablir l’apparition des contenus en mettant d’abord le « plus récent ».

Les pires scénarios ne sont plus seulement hypothétiques. On montre aux gens les choses qui les attirent le plus. Ils cliquent, lisent et regardent. Puis, ils sont aspirés par des vortex qui renforcent leurs pensées et leurs idées et, alors, ils se connectent avec des personnes qui partagent les mêmes idées

Vous vous êtes probablement dit que ce n’était pas bien grave, ou vous n’y avez même pas pensé du tout. Le problème est que ces algorithmes opaques n’ont pas seulement maximisé les informations sur la sortie des derniers albums de Taylor Swift. Ils ont aussi accentué la portée de tout ce qui est incendiaire — les attaques, la désinformation, les théories du complot. Ils nous ont poussés plus loin dans nos propres bulles de filtres hyperpolarisés.

« Il y a de mauvaises personnes qui font de mauvaises choses sur Internet, que ce soit QAnon ou les tenants de la suprématie blanche. Le problème n’est pas uniquement que Facebook, YouTube et d’autres réseaux sociaux les permettent sur leur plateforme, mais bien qu’ils les amplifient », explique Hany Farid, professeur d’informatique à l’université de Californie, à Berkeley.

Les pires scénarios ne sont plus seulement hypothétiques. On montre aux gens les choses qui les attirent le plus. Ils cliquent, lisent et regardent. Puis, ils sont aspirés par des vortex qui renforcent leurs pensées et leurs idées et, alors, ils se connectent avec des personnes qui partagent les mêmes idées. Ils finissent par avoir une perception personnalisée de la réalité. Et terminent par envahir le Capitole.

Les réseaux sociaux ne sont certainement pas les seuls à blâmer. Et lorsque la faute incombe à ces plateformes, les robots ne sont pas les seuls coupables. La fermeture des comptes Facebook et Twitter du président Trump a même révélé le contraire : les humains qui dirigent ces entreprises ont toujours le dernier mot sur ce qui y apparaît et n’y apparaît pas. (Et aux dernières nouvelles, nous pouvons toujours refuser d’utiliser les réseaux sociaux).

Mais au cœur de tout cela, il reste toujours un problème technologique gigantesque : les ordinateurs sont responsables de ce que nous voyons et ils fonctionnent sans transparence.

D’habitude, le but de ma chronique est d’apporter des solutions aux problèmes techniques. Mais dans la situation qui nous intéresse ici, il n’en existe pas – du moins, une qui soit simple. Tout ce que je peux faire, c’est partager quelques idées.

Idée n° 1 : pas d’algorithmes, pas de publicités

Mark Weinstein, le fondateur de MeWe, un réseau social qui se présente comme l’anti-Facebook, est très clair sur le fait que la solution consiste à revenir à un flux purement chronologique sans aucune manipulation.

Sur MeWe, vous suivez des amis, des pages ou des groupes. Les messages apparaissent dans votre flux tels qu’ils ont été postés. « Aucun annonceur, aucun spécialiste du marketing, aucun stratège politique et aucun utilisateur ne peut enrichir le contenu sur le flux de quelqu’un d’autre. Nous supprimons tout concept d’amplification de choses perturbatrices et scandaleuses, assure M. Weinstein. Tout Cela ne peut pas arriver sur MeWe. »

Plus précisément, dit-il, ce système limite la diffusion des fake news. « Vous devez choisir de suivre de fausses informations. Vous ne pouvez pas être alimenté à la petite cuillère par un algorithme ou par le gouvernement russe ou chinois », ajoute-t-il.

« Les algorithmes doivent simplement décider : “Nous pensons que les journaux comme le Wall Street Journal, les sites comme Wikipédia, ou les institutions comme l’Organisation mondiale de la santé (OMS) ont plus de valeur que les grosbetas.com” »

Cependant, ces dernières semaines, des utilisateurs d’extrême droite cherchant des alternatives à Facebook, Twitter et Parler ont atterri sur MeWe, qui compte actuellement 15,5 millions d’utilisateurs. M. Weinstein explique que le réseau social a beaucoup investi dans la modération et que ses conditions d’utilisation sont claires : vous en serez expulsé notamment en cas d’incitation à la violence ou de publication de contenus illégaux.

Après la rupture de leurs liens avec Parler, MeWe a pris contact avec Apple, Google et Amazon pour s’assurer que l’application respectait leurs directives en matière de modération. Le problème avec une timeline non algorithmique, cependant, est qu’un tel flux peut noyer les utilisateurs et qu’il devient difficile de trier le contenu. C’est exactement ce que m’ont dit Twitter, Facebook et Instagram quand je leur ai demandé pourquoi ils avaient, dans un premier temps, supprimé les réglages chronologiques par défaut.

M. Weinstein explique que MeWe, qui gagne de l’argent grâce à des fonctionnalités payantes et à une option d’abonnement premium — et non via la publicité — règle ce problème grâce à des filtres et des outils qui vous permettent de gérer votre flux. Vous pouvez filtrer par contacts, groupes et pages que vous suivez. Et comme il n’y a pas de publicité ciblée, MeWe ne collecte pas constamment des données à votre sujet, poursuit M. Weinstein.

Idée n° 2 : déclasser les contenus perturbateurs

Mais concernant les grandes firmes qui dépendent de la publicité, les chances qu’ils suppriment leurs algorithmes sont aussi grandes que celles que j’apprenne à mon chien à écrire des chroniques.

Les experts suggèrent que les plateformes devraient plutôt s’attacher sérieusement à déclasser tout ce qui a un caractère scandaleux, haineux ou complotiste, et à donner priorité à ce qui est digne de confiance, pensé et de qualité — même s’ils savent que cela signifie une baisse de l’engagement.

« Les algorithmes doivent simplement décider : “Nous pensons que les journaux comme le Wall Street Journal, les sites comme Wikipédia, ou les institutions comme l’Organisation mondiale de la santé (OMS) ont plus de valeur que les grosbetas.com” », estime le professeur Farid.

Et il y a des preuves que cela peut fonctionner. Dans une étude de mars 2020, le professeur Farid et d’autres chercheurs ont découvert que YouTube avait concrètement restreint la promotion des vidéos complotistes après la modification de ses algorithmes de recommandation.

Facebook a fait de même. Dans les semaines qui ont précédé la présidentielle, Facebook et Instagram ont pris des mesures pour limiter la diffusion d’informations que leurs algorithmes classaient comme des fake news potentielles, notamment les affirmations non fondées sur la fraude électorale. Cela a débouché sur une augmentation du nombre de sources d’information fiables et sur une baisse du nombre de sites partisans.

De plus, il y a des preuves que les discours véhiculant l’idée d’une fraude électorale ont fortement diminué sur Twitter après la suspension du compte de M. Trump, selon la plateforme de services de logiciels d’intelligence multimédia Zignal Labs.

Les régulateurs pourraient également intervenir. Au-delà des diverses actions antitrust, des voix se sont spécifiquement élevées pour que les entreprises soient tenues responsables de leurs algorithmes. Les enquêtes de mes collègues ont montré que Facebook était bien conscient de la tendance de son système de recommandation à pousser les gens vers les groupes extrémistes. Un projet de loi, présenté par les représentants démocrates Tom Malinowski (New Jersey) et Anna Eshoo (Californie), vise à tenir les plateformes responsables de la « promotion algorithmique de l’extrémisme ».

Idée n° 3 : rendre le contrôle

L’idée la plus folle de toutes ? Oh, figurez-vous que ce serait juste de nous rendre un peu de contrôle.

« Et si les gens pouvaient simplement dire : “Je veux voir des informations provenant d’un large éventail de sources politiques » ou « je ne veux voir que les messages de mes amis et de ma famille” », dit Jesse Lehrich, co-fondateur de Accountable Tech, une association à but non lucratif qui lutte contre la désinformation sur les réseaux sociaux.

Facebook vous permet, au moins, de vous renseigner un peu sur les raisons pour lesquelles vous voyez un contenu. Cliquez sur les trois points horizontaux de n’importe quel message de votre flux, puis sur « Pourquoi est-ce que je vois cette publication ? »

Et si vous pensez que le bon vieux flux par ordre chronologique est la solution, il existe des moyens de le remettre en place, au moins temporairement, sur certains services. Les paramètres sont cependant aussi cachés que dans un Où est Charlie ?

Facebook : Dans un navigateur web, allez sur l’icône d’accueil en haut de votre flux, faites défiler le menu sur le côté gauche. Sélectionnez « Voir plus », puis « Plus récent ». Dans l’application mobile, allez sur les trois traits horizontaux en haut ou en bas à droite de votre écran et cherchez « Plus récent ». Sachez que ce choix ne sera pas sauvegardé lorsque vous fermerez le site web ou l’application.

Twitter : C’est beaucoup plus facile. Une petite étoile dans le coin supérieur droit du site web et de l’application vous permet de « Voir les derniers Tweets » au lieu de « Top Tweets ». Alors qu’il vous renvoyait auparavant au flux déterminé par l’algorithme, il vous permet maintenant de rester dans l’organisation du flux que vous avez utilisé en dernier. Je bascule souvent entre les deux possibilités.

YouTube : Vous ne pouvez pas désactiver l’ensemble des recommandations algorithmiques, mais vous pouvez passer à « Dernières vidéos » dans chaque catégorie ou requête de recherche. Vous pouvez également désactiver la lecture automatique. Dans un navigateur web, recherchez le petit bouton basculant avec un bouton de lecture au bas du lecteur vidéo. Dans l’application, recherchez le petit bouton en haut du lecteur vidéo.

TikTok : A côté de l’addictif et déterminé par un algorithme flux « Pour toi », s’en trouve un autre qui montre uniquement les personnes que vous suivez sur la plateforme. Gardez à l’esprit que TikTok utilise toujours des algorithmes ici pour vous montrer les vidéos que, selon lui, vous aurez le plus envie de regarder.

Instagram : Désolé, ici, c’est impossible de contourner les algorithmes. Une porte-parole de Facebook explique qu’avec l’ancien flux chronologique, les utilisateurs rataient 70 % des messages — presque la moitié des contenus de leurs amis et de leur famille. Après avoir modifié le flux algorithmique, la société a constaté qu’en moyenne, les utilisateurs voyaient plus de 90 % des contenus postés par leurs amis.

S’il ne s’agissait que de nous, de nos amis et de notre famille, ce serait moins grave, mais depuis des années, les réseaux sociaux ne se contentent pas de vous permettre de suivre x ou y. C’est l’entonnoir par lequel beaucoup voient le monde et se forgent leurs opinions.

Les algorithmes qui servent les intérêts financiers des Big tech vont-ils continuer à nourrir ces opinions, ou allons-nous obtenir de véritables règles et vrai contrôle ? Malheureusement, ce n’est pas à nous de décider.

Traduit à partir de la version originale en anglais

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

 » Pour une éthique des algorithmes »

« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

Démystification des algorithmes pour la compréhension humaine

Démystification des algorithmes pour la compréhension humaine

 

Aurélie Jean, docteure en sciences et entrepreneure : explique dans l’opinion les limites des algorithmes pour la compréhension humaine.

 « Nous ne voulons pas endosser le rôle d’arbitre de la vérité. » Cet argument développé par Mark Zuckerberg pour se justifier de ne pas avoir à trancher ce qui peut être publié sur sa plateforme devient intenable alors que les réseaux sociaux s’installent toujours plus dans notre quotidien. Mais si ce n’est pas au patron de Facebook de tenir ce rôle, d’autres le peuvent-ils ? C’est ce que cherche à savoir l’Opinion dans cette série estivale.

Galilée l’affirmait : la nature est un livre écrit en langage mathématique. Tout phénomène, selon lui, pourrait être décrit par un système capable de capturer l’essence des mécanismes qui le constituent. Les philosophes recherchent le sens ultime des choses alors que les scientifiques recherchent des explications. Aux premiers, la quête du pourquoi, aux seconds l’exploration du comment. Par leur travail explicatif, les scientifiques traquent les erreurs qui font avancer cette recherche de vérité. Aujourd’hui, à nos sentiments, nos expériences et nos raisonnements parfois mathématiques, s’ajoutent le calcul et la logique algorithmiques. On s’efforcera ici de répondre à une question a priori banale, mais qui suppose une connaissance du fonctionnement des algorithmes, de leurs limites et de leurs potentiels, face à notre pensée bien humaine : les algorithmes détiennent-ils la vérité ?

La méthode algorithmique repose sur un dosage subtil d’empirisme et de rationalisme — pourtant traditionnellement distingués, voire opposés, dans le passé par nombre de philosophes. Les algorithmes explicites possèdent par définition une logique décrite par les humains. Dans cette logique on trouve par exemple des structures conditionnelles — si une condition est validée alors une opération algorithmique est exécutée —, des équations mathématiques souvent complexes, des conditions d’usage ou encore des hypothèses.

Parti pris. L’algorithme explicite fait alors appel principalement au raisonnement de ceux qui le conçoivent. On comprend, dès lors, qu’il modélise un phénomène à partir d’une observation et d’une compréhension du monde inévitablement subjective. Cela posé, la simulation qui en résulte permet de soulever des corrélations jusque-là purement conceptualisées, des couplages inconnus entre composantes du phénomène, ou des incohérences face à la réalité ou à ce qu’on pensait d’elle. Comme une meilleure compréhension des mécanismes de maladies, de phénomènes climatiques ou de manifestations sociologiques…

Contrairement aux algorithmes explicites, les algorithmes implicites possèdent une logique entièrement construite par apprentissage sur des données choisies et labellisées par les scientifiques. D’une certaine manière, cette approche s’inspire de l’empirisme par une utilisation brute des scénarios du phénomène à simuler symbolisés par les données d’apprentissage. Un jour, on pourra peut-être entraîner un algorithme entièrement sur des données non labellisées, mais il restera toujours le choix de ces données. Même sur des tailles gigantesques, celles-ci captureront toujours une réalité et non la réalité dans sa totalité. Rien ne permettra de démontrer le contraire.

Qu’ils soient explicites ou implicites, les algorithmes sont le fruit d’une construction humaine plus ou moins supervisée, avec ses biais et son prisme. Ils permettent de démontrer des concepts jusqu’ici induits ou tout simplement pensés, de trouver des solutions à des problèmes encore difficiles à mathématiser, ou de mettre en lumière des relations de causalité encore jamais soulignées. Cela dit, les algorithmes ne saisissent pas toute la réalité, ils se contentent de traduire une réalité induite par le raisonnement, sur un problème que notre logique a formulé, et dont nous analysons les résultats avec, là aussi, un parti pris inconscient.

Limites. Ce sujet rejoint une autre idée préconçue selon laquelle les algorithmes seraient capables un jour de tout modéliser — et, partant, de tout simuler. Cette position est invivable : on ne pourra jamais dire qu’on a tout observé ou tout capturé du monde qui nous entoure, car pour atteindre un tel paradigme il faudrait s’affranchir de l’idée même de monde. Les algorithmes qui permettent également d’apporter des éléments prédictifs sur un phénomène, deviennent pour les hommes l’outil suprême pour devenir maîtres de leur destin. L’algorithme deviendrait alors l’héritier des augures, des haruspices et autres devins. Mais là encore, il ne peut détenir la vérité future, par notre incapacité de confirmer l’intégralité de sa représentation du réel sans approximation, interprétation ou encore omission.

Penser les algorithmes comme détenteurs ultimes de la réalité, c’est s’interroger sur l’idée que celle-ci peut toujours être décrite analytiquement. Le cas de l’amour, par son caractère incapturable et indémontrable, affaiblit le principe même de véracité par une description analytique. Sans contredire Galilée, on admettra les limites des algorithmes à s’emparer de la vérité sur tout et à tout moment, car de la même manière que tout ne peut pas s’exprimer avec des mots, tout ne peut pas s’exprimer avec la logique actuellement formalisée, même complexe et fortement abstraite.

Le physicien nobélisé Richard Feynman disait que « le paradoxe n’est qu’un conflit entre la réalité et notre sentiment de ce que la réalité devrait être ». A la réalité résonne ici la vérité du monde que les philosophes tentent de trouver depuis plus de 2000 ans. Les algorithmes permettent de soulever de nombreux paradoxes par le niveau d’abstraction et la complexité de leur logique. Mais nous ne serons jamais à un paradoxe près… et nous aurons toujours besoin de philosophes !

Docteur en sciences et entrepreneure, Aurélie Jean est auteure du livre L’apprentissage fait la force, aux Editions de l’Observatoire.

« Les algorithmes ne sont pas neutres »

« Les algorithmes  ne sont pas neutres »

Le défenseur des droits conteste la neutralité des algorithmes et même certaines de leur pertinence. l’ancien ministre de la Justice souhaiterait traiter ce sujet avant son départ de l’institution, le 17 juillet prochain. A priori les algorithmes sont scientifiquement très sexy pour autant ils ne sont pas forcément pertinents vis-à-vis des facteurs explicatifs  et des hypothèses prospectives. Se pose aussi la question fondamental de la maîtrise humaine de la technique

 

La crise du Covid a-t-elle accru le risque de discrimination lié à l’utilisation des algorithmes?
A l’occasion de la crise du Covid-19, de nombreuses questions d’accès aux droits fondamentaux – égalité, liberté, etc. – se sont posées. Or, en matière d’épidémiologie, l’utilisation de base de données et leur mise en oeuvre par des processus mathématiques paraît évidente. Mais aujourd’hui, la pression des algorithmes est de plus en plus considérable car ils sont incontestablement l’une des manières de répondre à cette faiblesse de nos sociétés qui consiste à vouloir toujours trouver une solution à tout.

 

Quels sont les biais les plus importants?
Il y a d’abord un risque en ce qui concerne les bases de données. Les algorithmes sont créés à partir des données acquises passées. A une autre époque, ils auraient pu permettre d’affirmer que la Terre était plate! Il y a aussi des biais liés à des données non représentatives avec par exemple des catégories sous-représentées de la population. Ensuite, il y a les effets discriminatoires des algorithmes apprenants, c’est-à-dire ceux capables d’évoluer. C’est par exemple l’algorithme de jugement criminel Compas aux Etats-Unis qui, après avoir analysé des dizaines de milliers de jugements, vient aider les juges à rendre leur décision. En tant qu’ancien garde des Sceaux, je trouve que c’est l’horreur.

Que préconisez-vous?
On ne pourra avancer ni sur le diagnostic ni sur les solutions si on ne mène pas un travail qui allie le point de vue des créateurs des algorithmes, des utilisateurs, les directeurs d’hôpitaux par exemple, et des ‘vigilants’, au premier rang desquels la Cnil ; mais aussi des juristes, sociologues, philosophes capables d’introduire un certain nombre de règles dans la confection et la mise en œuvre des algorithmes. La non-discrimination est un principe de notre droit en Europe, elle doit être respectée et effective en toute circonstance, y compris quand une décision passe par le recours à un algorithme.

Les algorithmes renforcent-ils les préjugés humains?
L’informatique n’explique pas tout : dans les procédures de recrutement qui comportent des oraux avec des jurys, l’un des critères implicites est que les candidats soient le plus conformes possible au modèle social des membres du jury. Mais si on ajoute les algorithmes, on introduit une formidable puissance de conformisme. En outre, l’intelligence artificielle cherche à accréditer l’idée que la décision peut être prise indépendamment de l’intervention humaine. C’est un piège.

Lire aussi - Jean-Pierre Mignard : « Les mesures prises sont conformes au droit des sociétés démocratiques »

Ressemblent-ils à ceux qui les conçoivent?
Des études montrent que les algorithmes sont faits par une grande majorité d’informaticiens qui sont des hommes blancs et donc, les algorithmes apprenants vont jusqu’au bout traîner l’idée, par exemple, de différences entre les hommes et les femmes. Tous les stéréotypes de la société contre lesquels nous luttons risquent de se traduire dans les algorithmes. C’est un mécanisme extrêmement puissant car il est en apparence autonome. On dit que les algorithmes sont neutres car les mathématiques le sont, mais en réalité ils intègrent des éléments qui ne le sont pas. Les algorithmes locaux que les universités utilisent pour les dossiers de Parcoursup sont un très bon exemple de ce que des éléments neutres peuvent aboutir à des effets discriminatoires.

Pourquoi?
Quand vous retenez dans les critères le lycée d’origine, vous intégrez tout un contexte économique et social, les caractéristiques particulières des élèves qui le fréquentent, etc. A partir d’une donnée objective, vous aboutissez à une situation dans laquelle les élèves issus de classes populaires défavorisées ont moins de chance d’être pris dans des écoles ou des universités prestigieuses. Début avril, le Conseil constitutionnel a tranché : on doit pouvoir connaître ce que contient l’algorithme local. Le critère du lycée d’origine sera désormais probablement écarté ou en tout cas, le nécessaire sera fait pour que les décisions soient transparentes et motivées.

Pourquoi serait-ce davantage problématique qu’un jury qui prendrait également en compte ce critère géographique?
Le jury de la fac se retranchera derrière la décision de l’algorithme. Vous habillez d’un caractère objectif et neutre quelque chose qui ne l’est pas. Les algorithmes ont un caractère extrêmement séduisant. Dans la crise actuelle pleine de controverses, les algorithmes vont créer du consensus par exemple dans le choix des malades à soigner. Il y a une bataille entre l’intelligence artificielle et l’intelligence humaine. Or, l’intelligence artificielle présente un caractère en apparence objectif, désintéressé, consensuel et unanimiste alors que la recherche issue de l’intelligence humaine est faite constamment de ruptures. Ici se posent toutes les questions provoquées la puissance de l’informatique, des nouvelles technologies et la pression de ceux qui les fabriquent et les vendent.

Faut-il encadrer la conception de ces algorithmes?
Les créateurs de ces outils ne sont pas seulement des génies des maths, ils ont une responsabilité sociale. Il faut les former et les sensibiliser aux enjeux de discrimination. Il faut développer la recherche et inventer des algorithmes de ‘fair-learning’ qui répondent à l’objectif d’explicabilité, de transparence et d’égalité. Il faut développer les dispositions de l’article 13 du RGPD (règlement général sur la protection des données) pour aller plus loin. Enfin, des études d’impact systématiques, comme au Canada, doivent permettre d’anticiper les éventuels effets discriminatoires d’un algorithme dans le domaine public. Les professionnels doivent penser aux conséquences que leur algorithme va avoir. C’est le cas par exemple pour la médecine prédictive, avec des algorithmes qui pourraient établir des diagnostics sur la seule exploitation de l’historique des données. Il faut mettre en cause les grandes entreprises mondiales qui sont à l’origine de ces algorithmes.

Que pensez-vous des systèmes de traçage mis en place pour répondre à la crise sanitaire?
En France, comme en Grande-Bretagne, l’application de traçage repose sur une architecture centralisée. En Allemagne et en Espagne, l’architecture est décentralisée. En France, certains craignent que l’Etat ne dispose ainsi d’un fichier qui pourrait faire l’objet d’une fuite. Mais derrière une architecture décentralisée, il y a directement Google et Apple. Quelles garanties supplémentaires ces entreprises offrent-elles sur de tels dispositifs?

Doit-on faire d’autres lois pour encadrer leur utilisation?
La deuxième loi sur l’état d’urgence sanitaire comporte des dispositions protectrices que le défenseur des droits a souhaitées et que la Cnil a définies. Dans un Etat de droit, il existe tout un arsenal juridique sur les droits fondamentaux : c’est par exemple la loi de 2002 sur les droits des malades, ou celle sur la fin de vie, etc. L’Etat de droit repose sur un principe essentiel : le consentement du malade. Il faut que nous arrivions à faire entrer l’utilisation des algorithmes dans le cadre de ces lois. Ou bien il faudra créer d’autres lois, car les pouvoirs publics doivent s’assurer que leur mise en œuvre ne soit pas créatrice de discriminations.

Selon vous, ce débat sur les discriminations fait écho à la crise actuelle…
Les algorithmes sont une question de société marquée par une très forte pression de l’économie et une certaine indifférence du public. C’est un sujet central car il met en cause la combinaison fondamentale liberté-égalité, tout comme la crise sanitaire que l’on traverse.

L’homme doit-il reprendre le contrôle de la machine?
Nous devons susciter de la vigilance. Les algorithmes sont une création humaine et l’homme doit conserver sa responsabilité dans la manière dont ils sont faits et appliqués. Il n’y a pas d’un côté la technologie qui marche toute seule et de l’autre l’humanité qui tâtonne dans son coin. La technologie est issue de notre intelligence, elle relève de notre responsabilité. Individuellement et collectivement, les hommes et les femmes doivent maîtriser cette création du début à la fin.

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

Société: la domination par les algorithmes?

Société: la domination par les algorithmes?

 

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, fait une approche critique de la mainmise de grands de l’ internet sur la société. un danger évident d’autant que ces grandes sociétés sont exclusivement américaines ou chinoises. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux.  Il est toujours possible de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner. »

 

Algorithmes : un droit à la transparence ?

Algorithmes : un droit à la transparence ?

Winston Maxwell,  enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol