Archive pour le Tag 'r l’équilibre'

IA: Trouver l’équilibre entre innovation et régulation

IA: Trouver l’équilibre entre innovation et régulation

David Lacombled ,président de la Villa numéris, estime dans l’Opinion que « L’Europe peut encore inventer un modèle alternatif des données basé sur ses valeurs de respect des individus et de leurs droits ​»

 

 

La seule limite de l’intelligence artificielle (IA) sera celle de l’imagination humaine. Faut-il à ce point avoir peur de soi-même pour craindre autant l’IA ? Alors que le mot «robot» fête ses 100 ans, il suffit de regarder les débats sans fins qu’il suscite pour deviner que l’IA, en s’installant dans nos vies et dans notre économie, nourrira durablement les préventions. Si le robot répond aujourd’hui encore à une vision tayloriste défiant la main-d’œuvre, l’IA apparaît trop souvent comme pouvant rivaliser avec le cerveau en le simulant. Cela montre la nécessité de mieux partager et comprendre la technologie, ce qui n’implique pas pour autant de l’encadrer et de la réglementer ex ante.

Les données et leur utilisation sont aujourd’hui avant tout regardées d’un point de vue technologique ou financier, tant leur performance impressionne. Elles le sont moins par les répercussions qu’elles peuvent entraîner d’un point de vue social et humain tant la situation est inédite. A en donner le vertige. Un aperçu sur la valorisation boursière des « Big Tech » qui reposent avant tout sur l’efficience de leur algorithme, telles qu’Apple ou Amazon, rappelle à quel point les données sont génératrices de valeurs.

Eclairer l’avenir. Dans leur récent essai, Le Pouvoir de la Destruction Créatrice (Odile Jacob), Philippe Aghion, Céline Antonin et Simon Bunel rappellent que ce processus est bien une réalité, quelque chose de palpable pointant « un conflit permanent entre l’ancien et le nouveau ​». S’ils soulignent que « ​l’effet de destruction d’emplois se manifeste à court terme, tandis que l’effet de création d’emplois et l’effet de capitalisation sont davantage des effets de long terme ​». Or, « ​c’est bien à court terme que la destruction créatrice est ressentie par les individus dans les différentes enquêtes d’opinion ​».

Dans son essai L’intelligence artificielle n’existe pas, Luc Julia confesse ​: « ​ma grande crainte est que les gens croient tout ce qu’on leur raconte sur l’IA, tout simplement parce qu’ils n’ont pas assez d’informations sur le sujet ​». L’ingénieur, concepteur de l’assistant vocal Siri, préconise que « ​nous devons combattre les délires véhiculés par certains en argumentant avec les simples faits ​».

. De fait, la promesse de l’apocalypse en matière d’emplois pour les individus et de carnage financier pour les entreprises ne constitue pas vraiment un chemin engageant. Rappelons au contraire comment les données se sont transformées en petits cailloux blancs de nos existences permettant certes de les décrire, voire de les prédire, mais avant tout de les simplifier pour accéder aux savoirs et se divertir (cf. Netflix), pour vivre plus confortablement (recherche Web, navigation…), en meilleure santé et plus longtemps (aujourd’hui la modélisation de propagation des virus, demain les jumeaux numériques de nos propres corps), pour travailler plus efficacement pour ne pas dire plus intelligemment. Pour peu de dompter la machine. Ce sont là les valeurs et les promesses que portent avant tout les données et leur calcul par ce qui reste un programme informatique, l’intelligence artificielle.

Il n’en reste pas moins que l’intelligence artificielle, par sa puissance, pose des défis inédits. La docteure en informatique Marie-Aude Aufaure souligne à quel point « ​il faut particulièrement veiller aux biais, à l’explicabilité et l’acceptabilité des algorithmes appliqués sur des ensembles de données ​» pour contribuer à « ​démystifier les capacités de l’intelligence artificielle en rappelant que l’apprentissage au sens de l’IA est éloigné de l’apprentissage humain qui lui est centré sur une combinaison complexe de raisonnement, de mémoire, de connaissances de sens commun, etc. ​». En effet, un biais humain peut se retrouver démultiplié par la force du calcul. Par exemple, si votre entreprise recrute majoritairement des hommes et les paie mieux, le risque est grand que le fossé se creuse et s’amplifie si une IA prend le relais du processus de recrutement.

Dès 2017, la chercheuse Laurence Devillers décrivait Des Robots et des Hommes, mythes, fantasmes et réalité (Plon). Elle s’intéresse « ​à la perception des robots et met en avant qu’il faut créer des machines morales pour encadrer la vie avec ces machines et une réflexion est menée pour savoir s’il est possible à un robot d’avoir une conscience de soi. Elle explique en quoi cela est important, avec l’exemple des robots tueurs, et dans quelle mesure cela est possible d’un point de vue éthique et technique ​».

C’est à l’élaboration d’un nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation

C’est d’ailleurs, la régulation des armes létales autonomes qui constituait un des points majeurs du rapport de Gilles Lebreton, député européen du Rassemblement National, adopté il y a quelques jours par le Parlement européen montrant à quel point les élus seront tentés d’encadrer l’essor de la technologie. Pourtant, si un drone pouvait tuer sans ordre humain, c’est bien que l’humain l’aurait accepté. C’est bien une des limites à fixer.

Mot-valise à double fond. En cela, Laurence Devillers a raison de rappeler une évidence ​: « ​il ne faut pas penser les robots comme de nouveaux humains ​». Et c’est bien à l’élaboration de ce nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation par un excès de régulation.

Dès lors, le mot « éthique ​» apparaît comme un mot-valise, à double-fond, bien pratique pour y mettre tout ce qui relève de nos craintes et de nos peurs. Un mot à géométrie variable dont personne n’a la même définition et pour cause personne n’a le même code de valeurs. Certainement serait-il plus pertinent de revenir à des terminologies éprouvées, reconnues et partagées en entreprise de responsabilité sociale et environnementale, de gouvernance, de codes et de chartes. Cela n’empêche pas le dialogue. Au contraire.

La bataille des données n’est pas perdue car elle ne fait que commencer. Notre continent est particulièrement attaché au respect des droits de l’homme et à l’indépendance des individus. Avec la mise en place du Règlement général sur la protection des données (RGPD) puis l’annonce de celui sur le Digital Services Act, l’Europe montre sa volonté de construire un cadre de référence pour apporter protection aux consommateurs et stabilité aux entreprises. Il s’agit à présent d’inventer un modèle alternatif, respectueux des êtres et de leurs droits, ouvert, permettant de recueillir des données et de ne les utiliser que pour ce pour quoi elles ont été confiées. La primauté de l’humain n’est pas antagoniste avec les avancées technologiques. Pour peu que les individus s’en emparent.

David Lacombled est président de la Villa numéris.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol