Intelligence artificielle : la question de l’éthique pour Google
Pour Google comme pour la plupart des grands du numérique intervenant dans le domaine de l’intelligence artificielle la problématique est de rechercher une éthique compatible avec les développements commerciaux immenses. De ce point de vue, Google tente avec un peu de mal de prendre en compte la problématique complexe des conséquences considérables des algorithmes sur nombreux de dimensions de la vie professionnelle et de la vie privée. (Un papier du Wall Street Journal)
Au cours des dix-huit derniers mois, la maison mère de Google a dû faire face à une succession de controverses impliquant ses meilleurs chercheurs et dirigeants dans le domaine.
Le mois dernier, Google s’est séparé d’une éminente chercheuse en IA, Timnit Gebru. Elle avait dénoncé, dans une étude, l’approche de l’entreprise en matière d’IA et s’était plainte auprès de ses collègues des initiatives de l’entreprise en matière de diversité. Ses recherches concluaient que Google n’était pas assez vigilant dans le déploiement d’une technologie aussi puissante et qu’il était indifférent à l’impact environnemental de la conception de superordinateurs.
M. Pichai s’est engagé à mener une enquête sur les circonstances de son départ et a déclaré qu’il allait chercher à rétablir un climat de confiance. Le patron de Mme Gebru, Jeff Dean, a affirmé aux employés qu’il jugeait que ses recherches n’étaient pas suffisamment rigoureuses.
L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie
Depuis, près de 2 700 employés de Google ont signé une lettre ouverte affirmant que le départ de Mme Gebru « augure d’une menace pour les personnes travaillant en faveur d’une IA éthique et intègre — en particulier les noirs et les gens de couleur — à tous les échelons de Google ».
La semaine dernière, Google a annoncé enquêter sur la codirectrice de son équipe chargée de l’IA éthique, Margaret Mitchell, soupçonnée d’avoir téléchargé et partagé des documents internes avec des personnes extérieures à l’entreprise. Mme Mitchell, qui a critiqué M. Pichai sur Twitter pour sa gestion des questions de diversité, n’a pas répondu aux demandes de commentaires.
L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie. Ce secteur émergent soulève des questions complexes sur l’influence croissante des algorithmes informatiques dans un grand nombre d’aspects de la vie professionnelle et privée.
Google a cherché à se positionner comme un champion de l’IA éthique. « L’histoire est pleine d’exemples montrant que les bienfaits de nouvelles technologies ne sont pas garantis », avait déclaré M. Pichai lors d’une intervention devant un think tank à Bruxelles l’année dernière. « Si l’IA peut être source d’immenses promesses pour l’Europe et le monde, il existe de réelles inquiétudes sur ses conséquences négatives potentielles. »
La stratégie de développement de Google dans l’IA via des acquisitions a également amplifié ses difficultés en termes de management. De manière inattendue, Mustafa Suleyman, cofondateur de DeepMind, la division d’intelligence artificielle de Google basée à Londres, s’est vu enlevé fin 2019 la plupart de ses responsabilités de direction après avoir fait l’objet de plaintes pour intimidation de la part de membres du personnel, selon des sources bien informées.
DeepMind, que Google a acheté en 2014, a engagé un cabinet d’avocats indépendants pour mener une enquête sur les plaintes. Fin 2019, M. Suleyman a été muté à un autre poste de direction au sein de l’équipe d’IA de Google.
Dans un communiqué commun, DeepMind et Google ont confirmé la tenue d’une enquête sur le comportement de M. Suleyman mais ont refusé d’en révéler les conclusions. Ils se sont contentés d’indiquer qu’à la suite de l’investigation, il « a entamé un module de formation professionnelle — qu’il suit toujours — centré sur les sujets concernés, et ne gère plus de grandes équipes ». Les entreprises ont déclaré que dans le cadre de son rôle actuel de vice-président de la politique d’intelligence artificielle chez Google, « [M. Suleyman] fournit des contributions précieuses sur la politique et la réglementation en matière d’IA ».
En réponse aux questions du Wall Street Journal, M. Suleyman a précisé qu’il « acceptait les critiques affirmant qu’en tant que cofondateur de DeepMind, [il] dirigeait les gens trop durement et que [son] style de management n’était parfois pas constructif ». Il a ajouté : « Je m’excuse sans ambiguïté auprès de ceux qui ont été blessés. »
La nomination de M. Suleyman à un poste de haut niveau chez Google a contrarié certains membres du personnel de DeepMind, tout comme un tweet de M. Dean lui souhaitant la bienvenue dans ses nouvelles fonctions chez Google, selon des employés actuels et anciens.
« Je me réjouis de travailler plus étroitement avec vous », a écrit M. Dean dans ce tweet.
Contrairement au moteur de recherche de Google, où l’intelligence artificielle est utilisée pour réorganiser et faire remonter des informations existantes à caractère public, DeepMind se concentre surtout sur des questions de santé, comme le traitement de vastes quantités de données sur les patients afin de trouver de nouvelles méthodes pour combattre les maladies.
DeepMind peine à atteindre ses objectifs financiers. L’unité a subi une perte de 649 millions de dollars en 2019, selon le document officiel déposé au Royaume-Uni le mois dernier. Google, qui lui avait prêté plus d’un milliard de dollars au cours de la même période, a abandonné cette créance, indique ce rapport.
Google a essayé à plusieurs reprises de mettre en place une supervision plus étroite de ses projets d’intelligence artificielle, avec un succès mitigé.
Un conseil d’éthique externe sur l’IA créé par Google a été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite
Chez DeepMind, un comité d’évaluation indépendant censé contrôler cette filiale et produire un rapport public annuel, a été dissous fin 2018 après les protestations de ses membres qui considéraient ne pas disposer d’un accès complet aux recherches et aux projets stratégiques de l’entreprise.
Quelques mois plus tard, un conseil d’éthique externe sur l’IA créé par Google a également été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite. Un porte-parole de Google avait déclaré à l’époque que l’entreprise « allait trouver d’autres moyens pour obtenir des avis indépendants sur ces sujets ».
Si les projets de Google en matière d’intelligence artificielle remontent à au moins une décennie, ce secteur n’est devenu une division autonome sous la direction de M. Dean que depuis 2017. M. Pichai, en annonçant la création de cette nouvelle structure cette année-là, avait déclaré que l’intelligence artificielle serait au cœur de la stratégie et des activités de Google, et que l’informatique avancée — également appelée apprentissage automatique — serait déployée au sein de toute l’entreprise.
Pedro Domingos, professeur d’informatique à l’Université de Washington, estime que Google était bien conscient des nombreux pièges liés à l’IA. Il se souvient qu’il y a plusieurs années, au cours d’une discussion, le président du conseil d’administration d’Alphabet, John Hennessy, lui avait fait part de toute l’étendue de ses craintes à une période où le géant de la recherche intensifiait son développement dans le domaine.
M. Domingos ajoute que M. Hennessy lui avait également dit que si quelque chose tournait mal avec l’IA — même dans d’autres entreprises —, Google en serait tenu pour responsable.
« Un seul faux pas et tout nous explose au visage », avait confié M. Hennessy, selon M. Domingos. M. Hennessy affirme ne pas se souvenir des détails de la conversation, mais reconnaît que les propos rapportés par M. Domingos sont probablement exacts.
Une première faute a été commise en 2015, lorsque plusieurs utilisateurs noirs de Google ont eu la surprise de constater que la technologie d’intelligence artificielle du logiciel photo gratuit de la société avait automatiquement apposé le tag « gorille » sur un de leurs albums de photos humaines, en se basant sur la couleur de la peau.
Google s’est excusé, a réglé le problème, puis a publiquement assuré qu’il allait redoubler d’efforts pour mettre en place, en interne, des protocoles de sécurité afin de s’assurer que son logiciel était configuré de manière éthique.
« Google est la maman poule par excellence. Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées
Cette décision a nécessité le recrutement de chercheurs tels que Mme Gebru, l’ancienne codirectrice de l’équipe d’intelligence artificielle éthique de l’entreprise, qui s’est publiquement exprimée sur les limites des logiciels de reconnaissance faciale pour identifier les personnes à la peau plus foncée.
Elle faisait partie des centaines de collaborateurs qui ont produit des recherches sur l’IA, parfois avec des institutions universitaires. Contrairement aux autres ingénieurs de Google, le groupe dédié à l’IA fonctionnait davantage sur le modèle d’un département académique : il était chargé de débattre de questions plus générales plutôt que de résoudre des problèmes sur des produits déterminés.
Reuters a révélé ultérieurement qu’avant le départ de Mme Gebru, Google avait lancé une étude sur des sujets sensibles et, dans au moins trois cas, avait demandé à son personnel de ne pas présenter sa technologie sous un jour négatif. Google a refusé de faire des commentaires à ce sujet.
Mme Gebru et M. Dean n’ont pas répondu aux demandes de réactions dans le cadre de cet article.
Google a déclaré que ses avancées en matière d’intelligence artificielle ont permis la rapidité et la précision des résultats de son moteur de recherche — et la pertinence des publicités.
M. Domingos estime que la plupart des problèmes de Google liés à l’IA sont imputables aux principes de management de l’entreprise, et ajoute que c’est la science, et non l’idéologie, qui devrait guider les débats éthiques.
« Google est la maman poule par excellence », poursuit-il. « Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées.
Le départ de Mme Gebru illustre le défi que doit relever la direction de Google : les deux parties ne sont même pas d’accord sur le fait de savoir si elle a démissionné, ce que prétend la société, ou si elle a été licenciée pendant ses vacances, comme l’intéressée l’affirme.
Traduit à partir de la version originale en anglais
Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)
Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)
Mohit Joshi, Président d’Infosys explique comment mettre en œuvre l’IA à grande échelle: les entreprises doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur( chronique de la Tribune)
Nous sommes fermement ancrés dans la cinquième révolution industrielle, une révolution basée sur l’intelligence artificielle (IA). Tout a commencé par l’ordinateur central, puis les ordinateurs personnels dans les années 1980, suivis par Internet, et enfin l’agilité et la puissance du cloud computing dans les années 2010. Cette cinquième vague informatique sera la plus retentissante à ce jour, avec des capacités qui promettent toujours plus d’initiatives et d’exploration humaines.
Toutefois, un problème se pose. Bien que l’IA soit adaptée aux entreprises, nombre d’entre elles ne parviennent pas à en tirer pleinement profit. L’innovation est tellement rapide que les entreprises n’arrivent pas à suivre le rythme. En 2015, les chercheurs ont publié 10.000 articles scientifiques sur l’IA. En 2019, ce chiffre est passé à 25 000 rien qu’aux États-Unis. Pour de nombreux dirigeants, cette situation est inquiétante, surtout lorsqu’on sait qu’une bonne utilisation de l’IA devrait améliorer les bénéfices de l’entreprise de 38 % et permettrait d’offrir 14 000 milliards de dollars de valeur ajouté aux entreprises d’ici 2035.
Il serait donc judicieux que les entreprises à la traîne tirent les enseignements des organisations plus avancées en matière d’IA. Dans notre étude, nous avons découvert que les leaders en matière d’IA plaçaient la technologie au cœur de leur activité et de leurs modèles d’exploitation. Ils l’utilisent pour découvrir, démocratiser et réduire les risques inhérents à l’utilisation de l’IA. Pour ces entreprises, l’IA fait partie intégrante de leur ADN et leur permet de proposer de meilleurs produits, d’améliorer l’expérience client et d’obtenir davantage de valeur ajoutée auprès de leur écosystème de partenaires.
À l’inverse, les entreprises ayant pris du retard utilisent principalement l’IA pour améliorer l’efficacité plutôt que pour changer la façon dont l’entreprise gagne de l’argent. Pour prendre une longueur d’avance, ces entreprises doivent requalifier les employés, s’assurer que l’adoption de l’IA n’est pas fragmentée, développer des cadres éthiques et de gouvernance solide, et informer les dirigeants des risques et opportunités liés à l’adoption de l’IA. Cela permettrait d’augmenter les marges opérationnelles d’au moins 3 %. Pour une entreprise de services financiers dont les revenus s’élèvent à 10 milliards de dollars, cela équivaut à 300 millions de dollars supplémentaires de revenus, ce qui n’est pas négligeable.
La plupart des talents en science des données se tournant vers les grandes entreprises technologiques, les entreprises de services financiers leaders en matière d’IA se démarquent par leur capacité à requalifier la main d’œuvre. Elles utilisent des plateformes numériques et des outils d’auto-modélisation pour garantir un apprentissage permanent. C’est crucial. Il est maintenant temps pour les entreprises de former leurs talents internes, c’est-à-dire ces employés qui connaissent parfaitement l’entreprise et qui peuvent repérer les cas d’utilisation pertinents pour l’IA plus rapidement que les nouveaux embauchés.
Il est également essentiel de réunir les équipes sous un seul et même cadre d’IA au sein de toute l’entreprise. En effet, des opérations d’IA réussies peuvent accroître les marges opérationnelles d’au moins 6 % (ce qui représente 600 millions de dollars supplémentaires pour une entreprise dont les revenus s’élèvent à 10 milliards de dollars). Ces entreprises visionnaires s’assurent généralement que les équipes commerciales, financières et technologiques travaillent ensemble sur les projets d’IA tout au long du cycle de vie de l’IA, le plus souvent via un centre d’excellence. Les employés sont formés plus rapidement, les bons processus de gestion des changements sont regroupés afin que les solutions d’IA évoluent rapidement du stade de pilote au stade du déploiement et que l’IA au sein de l’entreprise soit en mesure de répondre aux attentes.
Pour obtenir des résultats et développer l’intelligence à grande échelle, il est nécessaire de développer une vision globale de l’IA d’entreprise qui repose sur des plateformes d’IA professionnelles. En outre, en tirant profit du produit visionnaire, du domaine et de conseils d’experts, les entreprises sont assurées d’obtenir des bénéfices exponentiels au fil du temps.
Des cadres d’IA éthiques et de gouvernance solide doivent être établis dès le départ. Cela permet de garantir des déploiements d’IA justes, équitables et impartiaux. Nous avons constaté que ces entreprises qui ont défini ces cadres surpassent d’au moins 25 % les entreprises retardataires sur un certain nombre d’indicateurs de performance clés de l’entreprise. Toutefois, il n’est pas toujours évident d’éliminer toute déformation inconsciente de ces données. C’est ici que le mandat organisationnel pour des solutions d’IA efficaces et explicables intervient.
Les employés qui utilisent l’IA en back office ou avec les clients doivent rapidement être informés des pratiques éthiques. Les algorithmes d’apprentissage automatique doivent être en mesure d’expliquer les décisions qu’ils prennent, de façon à ce qu’elles soient comprises par les autorités d’IA, notamment les régulateurs. Sans ce pilier d’IA, des éthiques d’IA imparfaites peuvent ruiner la réputation d’une entreprise financière en un instant, auprès des partenaires et des consommateurs.
Enfin, les leaders de l’IA doivent connaître l’impact des technologies sur un certain nombre d’aspects, notamment le modèle commercial, les employés, les partenaires, les clients et la société dans son ensemble. De nombreux dirigeants rencontrent des difficultés dans ces domaines et n’ont qu’une vague idée de la façon dont l’IA peut améliorer les marges et leur permettre de devancer la concurrence. Si 2020 est l’année de l’IA, alors cela doit également être l’année au cours de laquelle les dirigeants des entreprises financières commencent leur apprentissage de l’IA.
L’IA étant présente dans tous les aspects de notre vie, le temps est venu pour les entreprises d’accélérer le mouvement vers des statuts d’IA visionnaires. De l’IA normatif utilisé dans les stratégies de fonds de roulement et la réduction du risque opérationnel au traitement du langage naturel utilisé pour extraire les attributs sensibles des contrats, les applications innovantes de l’IA améliorent les entreprises de services financiers et leur permettent d’être plus rapides et plus agiles.
Pour mettre en œuvre l’IA à grande échelle, les entreprises de services financiers doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur. Ce faisant, nos clients seront les annonciateurs de la cinquième révolution industrielle.