Intelligence artificielle : de nouveaux engagements pour la sécurité ?
On peut évidemment se réjouir que les grandes entreprises aient pris de nouveaux engagements à propos de la sécurité de l’intelligence artificielle. En réalité, on semble surtout viser une certaine neutralité politique mais cela est loin de résoudre la question de l’éthique et du rapport entre l’humain et les robots.
Vers le développement d’une «IA sûre» ? Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont les représentants sont réunis ce mardi 21 mai à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science, a annoncé le gouvernement britannique. «Ces engagements garantissent que les principales entreprises d’IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d’une IA sûre», a déclaré le très libéral premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l’Innovation et de la Technologie.
L’accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s’appuie sur les consensus atteints lors du premier «sommet» mondial sur la sécurité de l’IA, l’an dernier à Bletchley Park, au Royaume-Uni. Ce second «sommet» à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique. Les entreprises d’IA qui n’ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu’elles développent s’engagent à le faire.
Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.