Archive pour le Tag 'réglementation.'

Intelligence artificielle :Une réglementation européenne technocratique

Intelligence artificielle :Une réglementation européenne technocratique

 

Les citoyens sont quasiment absents de la proposition de règlement élaborée par la Commission européenne qui, en outre, laisse le champ libre au secteur privé, s’inquiètent dans le Monde Marc Clément, magistrat administratif, et Daniel Le Métayer, chercheur spécialiste des algorithmes.

Tribune

 

La Commission européenne a publié, le 21 avril, une proposition de règlement qui se présente comme la clé de voûte de la future réglementation européenne pour l’intelligence artificielle (IA). On doit saluer le travail accompli par la Commission avec la mise en place d’un comité d’experts et des consultations des parties prenantes.

Ce texte doit désormais être discuté au Parlement européen et on peut espérer qu’un large débat s’engagera autour de ces propositions.

En effet, il est capital que les Européens se saisissent de l’occasion pour faire en sorte que l’IA soit utilisée au service de la société tout entière, et non pas comme un simple moyen d’influencer le consommateur ou d’asservir le citoyen.

Le texte de la Commission repose sur une démarche d’analyse des risques qui la conduit à distinguer trois groupes de systèmes d’IA : des systèmes ou des usages prohibés car jugés incompatibles avec les valeurs de l’Union européenne (UE), comme la manipulation de personnes vulnérables ou l’identification biométrique en temps réel dans l’espace public aux fins de police (sauf exceptions strictement encadrées) ; des systèmes qui présentent des risques importants et qui sont soumis à un certain nombre d’obligations (analyse et gestion des risques, transparence, garanties en matière de correction, d’absence de biais, de sécurité, etc.) ; et enfin des systèmes qui ne présentent pas de risques significatifs et qui ne sont soumis qu’à des obligations de transparence dans des cas particuliers (interactions avec des humains, etc.).

Une autre particularité du projet de règlement est qu’il est articulé autour de deux catégories principales d’acteurs : les fournisseurs de systèmes d’IA et ceux qui les déploient. Ainsi, la plupart des obligations associées aux systèmes à haut risque pèsent sur les fournisseurs qui doivent s’en acquitter avant la mise sur le marché de leurs produits. On ne peut que se féliciter de l’obligation de mesures d’évaluation et de réduction des risques ex ante.

 

Cette architecture du projet de règlement reposant sur les niveaux de risques et des catégories d’acteurs nous paraît pertinente, mais les choix particuliers qui ont été effectués sur ces deux plans méritent discussion.

Réglementation européenne de l’IA : un effet boomerang ?

Réglementation européenne de l’IA : un effet  boomerang ?

Les risques de la future réglementation européenne sur lit à part Par Renaud Pacull, co-fondateur d’EasyPicky dans l‘Opinion

tribune

Depuis plusieurs années, l’intelligence artificielle (IA) est source de multiples fantasmes technologiques dans l’imaginaire collectif. Pourtant, si les cas d’usage les plus médiatisés, évoqués plus haut, sont des domaines critiques qu’il convient de réguler pour en éviter les éventuelles dérives, ils sont loin d’être représentatifs de ce qu’est l’IA aujourd’hui, notamment en Europe. Il ne serait donc pas souhaitable de définir une législation globale pour l’ensemble des domaines d’application que recouvre cette technologie.

Or, jusqu’ici, la tradition culturelle européenne a souvent été de répondre à l’émergence de technologies de rupture par la mise en place d’un cadre législatif, un cadre dans lequel ces nouvelles pratiques peuvent s’épanouir. Tout l’enjeu réside donc ici dans le fait de réellement leur permettre de s’étendre, et non de les étouffer. Car une législation sur l’IA dans son ensemble, contraignant l’innovation et la recherche sur le secteur, pourrait être extrêmement dommageable et laisser ainsi la part belle à des nations hors de la communauté européenne.

« On n’a vraiment peur que de ce qu’on ne comprend pas », disait Maupassant. Et c’est bien là le nœud du problème : comment nos représentants pourraient-ils légiférer justement sur le si récent, vaste et complexe sujet de l’IA ? La réponse la plus courante consisterait à déléguer certaines tâches de contrôle à la sphère privée, plus à même de « labelliser » les IA éthiques et de rejeter les plus dangereuses. Outre le fait que ces sociétés de certifications, pour être justes, devront se baser sur des critères différents et objectifs pour chaque domaine d’application, que devient alors la propriété industrielle ?

Nos quelques pépites européennes ayant développé des IA propriétaires, et qui se sont lancées aussi parce qu’elles avaient à leur disposition des libertés de développements immenses, seraient alors contraintes de laisser entrer un tiers au cœur de leur réacteur sur lequel repose pourtant tout leur avantage concurrentiel. De quoi ralentir le développement d’un écosystème prometteur, ou prendre le risque de le voir s’exiler dans d’autres parties du monde.

… pour une présence forte de l’Europe sur la scène technologique de demain

Alors même que « l’IA forte » n’existe pas encore et n’existera probablement pas avant de nombreuses années, il serait sûrement préférable de laisser pour le moment l’écosystème européen vivre et se développer, gagner des parts de marché et assoir un leadership en la matière, plutôt que de légiférer dès à présent par principe de précaution. Prenons un parallèle plus que jamais dans l’air du temps : la manipulation génétique. Certaines avancées possibles sur ce secteur sont des dérives graves, d’autres sont source d’innovations absolument géniales. Or dans la course aux vaccins liée à la crise sanitaire actuelle, nos laboratoires français ont en partie préféré ne pas travailler sur la technologie de l’ARN messager, se faisant ainsi devancer, sous couvert de ce même principe de précaution.

Réguler trop largement l’IA aujourd’hui, et donc réduire le système de développement scientifique en Europe, c’est laisser une fois de plus le champ libre aux autres grandes puissances que sont les États-Unis et la Chine. Pire, c’est permettre à terme l’arrivée sur notre marché d’outils fondés sur des IA qui pourront être programmées sur la base de valeurs qui ne sont pas les nôtres, ce alors même que le consensus sur les valeurs éthiques de l’IA est bien l’objectif premier de la législation actuellement discutée. Une fois ces outils étrangers adoptés massivement, aucune régulation n’y fera rien. À titre d’exemple, un autre parallèle peut être fait ici : celui du RGPD. Arme de l’Europe contre les Gafa, il n’a fait que renforcer leur pouvoir en ralentissant le développement d’une concurrence saine et locale. Une concurrence qui n’a de fait plus accès à certaines données et n’a pas les moyens de contourner – à l’instar des géants du web – la législation.

Ainsi, plutôt que de chercher à légiférer rapidement et largement, nos autorités publiques auront raison d’entrer dans l’écosystème IA par d’autres portes : financements, initiatives en faveur de la formation, soutien à la recherche… c’est désormais à leur tour d’être innovantes dans leurs approches pour permettre à l’Europe de prendre la tête sur la scène internationale.

Renaud Pacull est co-fondateur d’EasyPicky.

Facebook : plates excuses pour ne pas changer la réglementation.

Facebook : plates excuses pour ne pas changer la réglementation.

 

Exercice d’introspection pour le patron de Facebook qui a multiplié les excuses devant le sénat américain. « C’est ma faute, c’est ma très grade faute ! » Des excuses d’autant plus nombreuses qu’elles visent surtout à éviter toute forme de régulation aux Etats Unis (sur le mode européen notamment).  L’objectif est de conserver evidemmenet l’objet commercial  de Facebook sous couvert de réseau social. C’est dire multiplier toujours et encore le nombre de connexions y compris les plus idiotes pour augmenter les recettes publicitaires et vendre les fichiers. Un réseau qui n’a rien de social composé d’amis majoritairement inconnus mais qui fournit de précieuses et fructueuses  données sur leur comportements de consommateur voire de citoyen. Facebook compte 2 milliards « d’amis » et l’objectif central est d’en augmenter le nombre. D’autant que la concurrence est vive avec les autres réseaux sociaux. Instagram par exemple surtout fréquenté par les ados, tweeter par les « vieux » tandis que Facebook est plutôt utilisé par le jeune adulte type beauf.  Mark Zuckerberg est revenu sur deux volets très critiquables, la vente de données à des fins politiques et la diffusion de propos de haine.  . « L’erreur me revient, je suis désolé », a-t-il d’abord concédé.  »Il est évident aujourd’hui que nous n’avons pas fait assez pour empêcher ces outils d’être utilisés de façon malintentionnée (…). Nous n’avons pas pris une mesure assez large de nos responsabilités et c’était une grosse erreur. L’erreur me revient et je suis désolé », a-t-il dit, en pleine tourmente sur le scandale de fuite de données vers Cambridge Analytica. « Cela prendra du temps pour mener à bien tous les changements nécessaires » pour limiter ces mauvais usages, a-t-il ajouté.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol