Archive pour le Tag 'l’éthique'

La monnaie et l’éthique

La monnaie et l’éthique ( François Villeroy de Galhau)

« La guerre russe en Ukraine nous met au défi d’un dialogue à réinventer avec les autorités politiques », écrit le gouverneur de la Banque de France qui défend le concept d’ éthique de la monnaie.

Un article intéressant mais qui peine cependant à convaincre des dimensions éthiques de la monnaie et de son influence bénéfique sur les marchés des matières premières, de l’énergie mais aussi sur la croissance, la cohésion sociale et même l’environnement.La politique monétaire entretient déjà des relations difficiles avec la seule économie notamment en ce moment vis-à-vis de l’inflation. Lui attribuer d’autres vertus relève d’une surévaluation non documentée des Banques centrales et de la monnaie. Un article qui manque sérieusement d’argumentation scientifique NDLR

L’actualité brûlante – ô combien – ne doit pas nous faire oublier les caps longs ; c’est la leçon de sagesse d’un Michel Camdessus et de ses 89 ans. L’homo economicus a inventé la monnaie très tôt dans l’histoire de l’humanité. Presque aussitôt après, d’innombrables pratiques abusives furent observées : trafic du poids d’or ou d’argent, balances faussées… Les hommes ont dès lors rapidement invoqué l’éthique.

Si l’éthique de l’argent peut se résumer par ces mots de Dumas fils, « l’argent est un bon serviteur, mais un mauvais maître », je parlerai plutôt ici d’éthique de la monnaie. Sa première spécificité, c’est sa dimension « souveraine » : il n’y a pas de monnaie sans autorité publique qui la garantisse et en soit responsable. Il a fallu beaucoup de temps, jusqu’au XIXe siècle avec la création des banques centrales et l’émission des premiers billets de banque, pour que se « dématérialise » la confiance en la monnaie. Pour nous, banques centrales, cette confiance repose sur trois éléments clés, certes différents, mais étroitement imbriqués… et remis en cause aujourd’hui.

L’indépendance d’abord, aujourd’hui inscrite dans les statuts de la plupart des banques centrales – et notamment ceux de l’Eurosystème – depuis la fin du XXe siècle. Mais indépendance n’est pas isolement. La guerre russe en Ukraine nous met au défi d’un dialogue à réinventer avec les autorités politiques : parce que la géopolitique est aujourd’hui un déterminant majeur de l’économie, et parce que le marché de l’énergie, sa régulation et la fixation de ses prix sont clés pour l’inflation.

Ensuite le mandat : la stabilité des prix est aujourd’hui le mandat premier de la plupart des banques centrales. Certaines en ont des plus larges, comme la Fed qui inclut l’emploi ; d’autres se sont montrées sensibles au changement climatique ou aux inégalités. Certains observateurs se demandent alors si les banques centrales ne perdent pas de vue leur prime responsabilité.
Objectifs secondaires. Dans ce contexte, à l’éthique de conviction, je préfère l’éthique de responsabilité – qui favorise le réalisme et un mandat plus ciblé.

Le mandat de l’Eurosystème est clairement hiérarchisé entre un objectif principal de stabilité des prix qui, seulement s’il est atteint, nous amène à contribuer à des objectifs secondaires : croissance, cohésion sociale, environnement. L’engagement fort de l’Eurosystème à lutter contre le changement climatique est pleinement justifié par les profondes conséquences de celui-ci sur la stabilité des prix, en raison de ses effets sur l’activité et le système financier.

Enfin, les banques centrales doivent rendre compte de manière compréhensible de nos décisions de politique monétaire, même complexes. Notre communication doit résister au risque de « dominance politique » ou de « dominance des marchés » qui irait à l’encontre de notre indépendance, mais aussi à la dictature du court-termisme, liée à la récente série de crises.

Pour conclure, la confiance s’appuie sur des fondations humaines essentielles, patiemment construites au fil du temps. Les réunions internationales auxquelles participent les banquiers centraux ne sont pas des lieux d’accords banals, mais des forums de véritable dialogue fondé sur un diagnostic commun, où nous partageons nos préoccupations : autant d’échanges qui ne seront pas divulgués, instrumentalisés ou déformés. C’est la meilleure manière pour que nous avancions ensemble. Ainsi, dans les eaux agitées où nous, banquiers centraux, naviguons, l’éthique de la monnaie doit plus que jamais servir de fil conducteur.

Francois Villeroy de Galhau est gouverneur de la Banque de France. Ce texte est issu de son discours prononcé le 14 septembre 2022 au Fonds Monétaire International à Washington, dans le cadre des conférences Michel Camdessus.

Intelligence artificielle : la question de l’éthique pour Google

Intelligence artificielle : la question de l’éthique pour Google

Pour Google comme pour la plupart des grands du numérique intervenant dans le domaine de l’intelligence artificielle la problématique est de rechercher une éthique compatible avec les développements commerciaux immenses. De ce point de vue, Google tente avec un peu de mal de prendre en compte la problématique complexe des conséquences considérables des algorithmes sur nombreux de dimensions de la vie professionnelle et de la vie privée. (Un papier du Wall Street Journal)

Au cours des dix-huit derniers mois, la maison mère de Google a dû faire face à une succession de controverses impliquant ses meilleurs chercheurs et dirigeants dans le domaine.

Le mois dernier, Google s’est séparé d’une éminente chercheuse en IA, Timnit Gebru. Elle avait dénoncé, dans une étude, l’approche de l’entreprise en matière d’IA et s’était plainte auprès de ses collègues des initiatives de l’entreprise en matière de diversité. Ses recherches concluaient que Google n’était pas assez vigilant dans le déploiement d’une technologie aussi puissante et qu’il était indifférent à l’impact environnemental de la conception de superordinateurs.

M. Pichai s’est engagé à mener une enquête sur les circonstances de son départ et a déclaré qu’il allait chercher à rétablir un climat de confiance. Le patron de Mme Gebru, Jeff Dean, a affirmé aux employés qu’il jugeait que ses recherches n’étaient pas suffisamment rigoureuses.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie

Depuis, près de 2 700 employés de Google ont signé une lettre ouverte affirmant que le départ de Mme Gebru « augure d’une menace pour les personnes travaillant en faveur d’une IA éthique et intègre — en particulier les noirs et les gens de couleur — à tous les échelons de Google ».

La semaine dernière, Google a annoncé enquêter sur la codirectrice de son équipe chargée de l’IA éthique, Margaret Mitchell, soupçonnée d’avoir téléchargé et partagé des documents internes avec des personnes extérieures à l’entreprise. Mme Mitchell, qui a critiqué M. Pichai sur Twitter pour sa gestion des questions de diversité, n’a pas répondu aux demandes de commentaires.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie. Ce secteur émergent soulève des questions complexes sur l’influence croissante des algorithmes informatiques dans un grand nombre d’aspects de la vie professionnelle et privée.

Google a cherché à se positionner comme un champion de l’IA éthique. « L’histoire est pleine d’exemples montrant que les bienfaits de nouvelles technologies ne sont pas garantis », avait déclaré M. Pichai lors d’une intervention devant un think tank à Bruxelles l’année dernière. « Si l’IA peut être source d’immenses promesses pour l’Europe et le monde, il existe de réelles inquiétudes sur ses conséquences négatives potentielles. »

La stratégie de développement de Google dans l’IA via des acquisitions a également amplifié ses difficultés en termes de management. De manière inattendue, Mustafa Suleyman, cofondateur de DeepMind, la division d’intelligence artificielle de Google basée à Londres, s’est vu enlevé fin 2019 la plupart de ses responsabilités de direction après avoir fait l’objet de plaintes pour intimidation de la part de membres du personnel, selon des sources bien informées.

DeepMind, que Google a acheté en 2014, a engagé un cabinet d’avocats indépendants pour mener une enquête sur les plaintes. Fin 2019, M. Suleyman a été muté à un autre poste de direction au sein de l’équipe d’IA de Google.

Dans un communiqué commun, DeepMind et Google ont confirmé la tenue d’une enquête sur le comportement de M. Suleyman mais ont refusé d’en révéler les conclusions. Ils se sont contentés d’indiquer qu’à la suite de l’investigation, il « a entamé un module de formation professionnelle — qu’il suit toujours — centré sur les sujets concernés, et ne gère plus de grandes équipes ». Les entreprises ont déclaré que dans le cadre de son rôle actuel de vice-président de la politique d’intelligence artificielle chez Google, « [M. Suleyman] fournit des contributions précieuses sur la politique et la réglementation en matière d’IA ».

En réponse aux questions du Wall Street Journal, M. Suleyman a précisé qu’il « acceptait les critiques affirmant qu’en tant que cofondateur de DeepMind, [il] dirigeait les gens trop durement et que [son] style de management n’était parfois pas constructif ». Il a ajouté : « Je m’excuse sans ambiguïté auprès de ceux qui ont été blessés. »

La nomination de M. Suleyman à un poste de haut niveau chez Google a contrarié certains membres du personnel de DeepMind, tout comme un tweet de M. Dean lui souhaitant la bienvenue dans ses nouvelles fonctions chez Google, selon des employés actuels et anciens.

« Je me réjouis de travailler plus étroitement avec vous », a écrit M. Dean dans ce tweet.

Contrairement au moteur de recherche de Google, où l’intelligence artificielle est utilisée pour réorganiser et faire remonter des informations existantes à caractère public, DeepMind se concentre surtout sur des questions de santé, comme le traitement de vastes quantités de données sur les patients afin de trouver de nouvelles méthodes pour combattre les maladies.

DeepMind peine à atteindre ses objectifs financiers. L’unité a subi une perte de 649 millions de dollars en 2019, selon le document officiel déposé au Royaume-Uni le mois dernier. Google, qui lui avait prêté plus d’un milliard de dollars au cours de la même période, a abandonné cette créance, indique ce rapport.

Google a essayé à plusieurs reprises de mettre en place une supervision plus étroite de ses projets d’intelligence artificielle, avec un succès mitigé.

Un conseil d’éthique externe sur l’IA créé par Google a été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite

Chez DeepMind, un comité d’évaluation indépendant censé contrôler cette filiale et produire un rapport public annuel, a été dissous fin 2018 après les protestations de ses membres qui considéraient ne pas disposer d’un accès complet aux recherches et aux projets stratégiques de l’entreprise.

Quelques mois plus tard, un conseil d’éthique externe sur l’IA créé par Google a également été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite. Un porte-parole de Google avait déclaré à l’époque que l’entreprise « allait trouver d’autres moyens pour obtenir des avis indépendants sur ces sujets ».

Si les projets de Google en matière d’intelligence artificielle remontent à au moins une décennie, ce secteur n’est devenu une division autonome sous la direction de M. Dean que depuis 2017. M. Pichai, en annonçant la création de cette nouvelle structure cette année-là, avait déclaré que l’intelligence artificielle serait au cœur de la stratégie et des activités de Google, et que l’informatique avancée — également appelée apprentissage automatique — serait déployée au sein de toute l’entreprise.

Pedro Domingos, professeur d’informatique à l’Université de Washington, estime que Google était bien conscient des nombreux pièges liés à l’IA. Il se souvient qu’il y a plusieurs années, au cours d’une discussion, le président du conseil d’administration d’Alphabet, John Hennessy, lui avait fait part de toute l’étendue de ses craintes à une période où le géant de la recherche intensifiait son développement dans le domaine.

M. Domingos ajoute que M. Hennessy lui avait également dit que si quelque chose tournait mal avec l’IA — même dans d’autres entreprises —, Google en serait tenu pour responsable.

« Un seul faux pas et tout nous explose au visage », avait confié M. Hennessy, selon M. Domingos. M. Hennessy affirme ne pas se souvenir des détails de la conversation, mais reconnaît que les propos rapportés par M. Domingos sont probablement exacts.

Une première faute a été commise en 2015, lorsque plusieurs utilisateurs noirs de Google ont eu la surprise de constater que la technologie d’intelligence artificielle du logiciel photo gratuit de la société avait automatiquement apposé le tag « gorille » sur un de leurs albums de photos humaines, en se basant sur la couleur de la peau.

Google s’est excusé, a réglé le problème, puis a publiquement assuré qu’il allait redoubler d’efforts pour mettre en place, en interne, des protocoles de sécurité afin de s’assurer que son logiciel était configuré de manière éthique.

« Google est la maman poule par excellence. Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées

Cette décision a nécessité le recrutement de chercheurs tels que Mme Gebru, l’ancienne codirectrice de l’équipe d’intelligence artificielle éthique de l’entreprise, qui s’est publiquement exprimée sur les limites des logiciels de reconnaissance faciale pour identifier les personnes à la peau plus foncée.

Elle faisait partie des centaines de collaborateurs qui ont produit des recherches sur l’IA, parfois avec des institutions universitaires. Contrairement aux autres ingénieurs de Google, le groupe dédié à l’IA fonctionnait davantage sur le modèle d’un département académique : il était chargé de débattre de questions plus générales plutôt que de résoudre des problèmes sur des produits déterminés.

Reuters a révélé ultérieurement qu’avant le départ de Mme Gebru, Google avait lancé une étude sur des sujets sensibles et, dans au moins trois cas, avait demandé à son personnel de ne pas présenter sa technologie sous un jour négatif. Google a refusé de faire des commentaires à ce sujet.

Mme Gebru et M. Dean n’ont pas répondu aux demandes de réactions dans le cadre de cet article.

Google a déclaré que ses avancées en matière d’intelligence artificielle ont permis la rapidité et la précision des résultats de son moteur de recherche — et la pertinence des publicités.

M. Domingos estime que la plupart des problèmes de Google liés à l’IA sont imputables aux principes de management de l’entreprise, et ajoute que c’est la science, et non l’idéologie, qui devrait guider les débats éthiques.

« Google est la maman poule par excellence », poursuit-il. « Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées.

Le départ de Mme Gebru illustre le défi que doit relever la direction de Google : les deux parties ne sont même pas d’accord sur le fait de savoir si elle a démissionné, ce que prétend la société, ou si elle a été licenciée pendant ses vacances, comme l’intéressée l’affirme.

Traduit à partir de la version originale en anglais

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”*

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”

 »Christian Hervé et Henri-Corto Stoeklé  »

Chronique du Monde

 

« Deux camps se sont formés autour du Professeur Didier Raoult : le camp des « contre » versus le camp des « pour ». Les « contre » critiquèrent donc la faiblesse scientifique de ces études. Selon eux, en l’absence de groupe de témoin, même si la taille de l’échantillon de malades avait augmenté entre la première et la deuxième étude à l’époque (il passa de l’ordre de 20 malades à celui de 80, soit un facteur 4), celles-ci ne permettaient aucunement d’affirmer – ou d’infirmer – l’efficacité réelle du traitement. Pour cette raison, il ne devait pas être prescrit.

De leur côté, les « pour » soutinrent l’idée que, lors d’une telle urgence sanitaire, la déontologie médicale ordonnait aux cliniciens d’utiliser tous les moyens qui semblaient bon pour soigner le plus grand nombre de patients possibles. Ils justifièrent ainsi l’absence de groupe témoin : il n’était pas moralement acceptable de priver d’un traitement qui serait susceptible de marcher. Pour cette raison, même si les preuves scientifiques in vivo pouvaient manquer à ce stade, le traitement devait être prescrit à l’ensemble des malades.

Deux causes défendables. La situation était pour le moins délicate. En l’absence de certitude, les arguments des deux camps pouvaient objectivement s’entendre – et probablement encore aujourd’hui. Pour enfin sortir de cette dualité, la question de fond apparaît être la suivante : est-ce qu’en temps de crise sanitaire d’une extrême gravité, comme celle causée par la pandémie du Covid-19, et en l’absence de moyens réels efficients, l’intuition clinique peut être entendue ou non ? Et cela, avant l’établissement de standards thérapeutiques, scientifiquement démontrés et reconnus par les pairs.

La réponse à cette question est beaucoup moins évidente que certains peuvent le percevoir ou le contester, même massivement. L’idée d’une « éthique du traitement » versus une « éthique de la recherche » nous semble très réductrice vis-à-vis d’une situation où deux causes défendables s’affrontent.

L’agora, sur les plateaux de télévisions et les réseaux sociaux, n’est pas encore le lieu pour une telle discussion. D’ailleurs, tous les experts (ou non), « pour » ou « contre », qui ont pris à ce jour la parole ont-ils vraiment permis aux « profanes » visés de mieux saisir toute la complexité de l’affaire ?

Il faudrait bien plus qu’une ou plusieurs tribunes pour bien comprendre et expliquer ce qui relèverait plutôt d’un long travail académique d’éthique et d’intégrité scientifique, à mener une fois la crise derrière nous.

Christian Hervé est professeur émérite à l’Université de Paris, président de l’Académie internationale d’éthique, médecine et politique publique, responsable de la mission éthique de l’Hôpital Foch. Henri-Corto Stoeklé est docteur en éthique médicale, chargé de mission bioéthique à l’Hôpital Foch.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol