Archive pour la Catégorie 'nouvelles technologies'

Page 3 sur 56

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Nouvelles batteries :au centre de l’activité économique

Nouvelles batteries : au centre de l’activité économique

Le monde fonctionne de plus en plus avec des batteries aujourd’hui principalement lithium-ion. Mais plusieurs modèles recourant à des technologies différentes apparaissent. Ils vont contribuer à la croissance économique grâce à de nouvelles applications. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies dans la Tribune.
Xavier Dalloz
28 Mai 2023, 17:39

Les batteries vont notamment avoir de plus en plus d’applications dans notre vie quotidienne, ainsi que dans de nombreux secteurs industriels. Il est évident que l’économie de demain fonctionnera avec des batteries.

Par exemple, les véhicules électriques ont déjà dépassé 10 % des ventes mondiales de véhicules en 2022. Ces ventes devraient atteindre 30 % d’ici 2030. Aujourd’hui, la plupart des véhicules électriques sont alimentés par des batteries lithium-ion, une technologie vieille de plusieurs décennies également utilisée dans les ordinateurs portables et les téléphones portables. Les véhicules électriques d’aujourd’hui se rapprochent du prix des voitures à essence et peuvent parcourir des centaines de kilomètres entre les charges. Les nouvelles batteries vont augmenter ces performances.

De nombreuses innovations vont en effet transformer radicalement les batteries avec de nouvelles applications telles que le stockage d’électricité sur le réseau qui peut aider à équilibrer les sources d’énergie renouvelables intermittentes comme l’éolien et le solaire. Un nouveau monde émerge autour de nouvelles batteries.

Voici quelques exemples :

Batteries lithium-ion améliorées
Les batteries lithium-ion sont largement utilisées dans de nombreux appareils électroniques, des téléphones portables aux voitures électriques. Les chercheurs travaillent sur l’amélioration de leur capacité de stockage d’énergie, de leur durée de vie et de leur sécurité.
Des avancées ont été réalisées en augmentant la densité énergétique, ce qui permet d’obtenir une plus grande autonomie pour les véhicules électriques et les appareils mobiles.
Batteries à semi-conducteurs :
Les batteries à semi-conducteurs sont une nouvelle génération de batteries qui utilisent des matériaux à semi-conducteurs au lieu des électrolytes liquides traditionnels.
Elles promettent une densité d’énergie encore plus élevée, une charge plus rapide et une sécurité améliorée. Les batteries à semi-conducteurs pourraient jouer un rôle clé dans l’adoption généralisée des véhicules électriques.
Ces batteries ont une conception similaire à celle des batteries lithium-ion, y compris un électrolyte liquide, mais au lieu de compter sur le lithium, elles utilisent le sodium comme ingrédient chimique principal. CATL aurait prévu de commencer à les produire en masse avant la fin de l’année 2023.
Les batteries sodium-ion
Cette nouvelle technologie permettrait également de réduire les coûts de l’ordre de 20 % environ, avec toutefois une densité énergétique légèrement plus faible que les batteries lithium-ion, impliquant une autonomie légèrement en retrait. Elles bénéficieront en revanche d’une recharge rapide, et devraient permettre de satisfaire la majorité des usages.
Batteries à l’état solide :
Les batteries à l’état solide utilisent des électrolytes solides au lieu des électrolytes liquides dans les batteries traditionnelles.
Elles offrent plusieurs avantages, tels qu’une plus grande densité d’énergie, une meilleure sécurité, une durée de vie plus longue et une recharge plus rapide. Les batteries à l’état solide sont considérées comme l’une des prochaines grandes avancées dans le domaine des batteries au cours des prochaines années.
Batteries rechargeables à base de zinc :
Les batteries rechargeables à base de zinc sont une alternative intéressante aux batteries au lithium-ion.
Le zinc est un matériau abondant, peu coûteux et non toxique. Ces batteries ont une densité énergétique élevée, une meilleure sécurité et une meilleure stabilité thermique.
De plus, elles peuvent être recyclées plus facilement que les batteries au lithium-ion.
Batteries à flux redox :
Les batteries à flux redox utilisent des électrolytes liquides contenant des ions actifs pour stocker l’énergie.
Elles offrent la possibilité de stocker de grandes quantités d’énergie à grande échelle, ce qui les rend idéales pour les applications stationnaires telles que le stockage d’énergie solaire et éolienne.
Les batteries à flux redox sont connues pour leur longue durée de vie et leur capacité à être rechargées rapidement.
Les batteries LFP (phosphate de fer au lithium)
Les batteries LFP ont une densité d’énergie inférieure à celle des batteries lithium-ion, mais leur coût est moins élevé et surtout elles n’utilisent ni cobalt, ni nickel, matériaux sensibles aux risques d’approvisionnement et de volatilité des prix.
Elles connaitront une forte croissance en Europe et aux États-Unis d’ici à 2030 du fait des prix élevés du cobalt et du nickel.
La part de marché des LFP augmente rapidement , passant d’environ 10 % du marché mondial des véhicules électriques en 2018 à environ 40 % en 2022.
La batterie Prieto
La batterie Prieto peut se recharger complètement en trois minutes et peut fournir plus de cinq fois la densité de puissance et jusqu’à trois fois la densité d’énergie des batteries 2D traditionnelles.
La batterie peut fonctionner à des températures aussi basses que moins 30 degrés Celsius et à plus de 100 degrés Celsius,
Contrairement aux batteries lithium-ion traditionnelles, sa conception 3D garantit que la batterie ne soit pas inflammable.
Le rôle clé du noir de carbone et du graphite dans les batteries
Le carbone est utilisé dans les batteries principalement sous forme de graphite, qui est l’un des composants clés des électrodes. Le carbone a le potentiel d’être la prochaine percée dans la technologie des batteries. Son utilisation dans les collecteurs de courant permet notamment d’améliorer le point le plus faible des batteries plomb-acide, à savoir leur faible énergie spécifique.

Voici quelques usages du carbone dans les batteries :

Électrodes négatives :
Le graphite est couramment utilisé comme matériau d’électrode négative dans les batteries au lithium-ion. Lorsque la batterie se décharge, les ions lithium se déplacent de l’électrode négative (anode) vers l’électrode positive (cathode) à travers l’électrolyte, produisant ainsi un courant électrique.
Le graphite est choisi pour sa capacité à intercaler et stocker les ions lithium, ce qui permet une réversibilité des réactions électrochimiques lors des cycles de charge et de décharge.
Électrodes positives :
Bien que le carbone ne soit pas utilisé comme matériau d’électrode positive dans les batteries au lithium-ion, certains types de batteries, comme les batteries au plomb-acide, utilisent des électrodes positives à base de carbone.
Matériau conducteur :
Le carbone est un matériau électriquement conducteur, ce qui en fait un choix idéal pour faciliter le transfert d’électrons dans une batterie. Il est souvent utilisé pour recouvrir les électrodes afin d’améliorer la conductivité électrique et d’assurer une distribution uniforme du courant.
Amélioration de la stabilité :
L’ajout de carbone dans les électrodes peut améliorer la stabilité et la durabilité des batteries. Il peut aider à prévenir la formation de dendrites de lithium, qui peuvent court-circuiter la batterie et entraîner des problèmes de sécurité.
Supercapacités :
Les supercondensateurs, également appelés supercapacités, sont des dispositifs de stockage d’énergie qui utilisent le carbone sous forme de matériaux poreux, tels que les nanotubes de carbone ou le carbone activé.
Ces matériaux offrent une surface spécifique élevée, ce qui permet une plus grande capacité de stockage électrique.
Quant aux applications des batteries, on va les trouver partout dans notre vie quotidienne.

Voici quelques-unes des applications qui vont se généraliser :

Automobile
Les batteries sont essentielles pour alimenter les véhicules électriques (VE) et les véhicules hybrides rechargeables (VHR).
Les batteries fournissent l’énergie nécessaire pour propulser le véhicule et alimenter les systèmes électriques tels que les phares, le système de climatisation, l’électronique embarquée, etc.
Électronique grand public
Les batteries sont utilisées dans une variété d’appareils électroniques grand public tels que les téléphones portables, les tablettes, les ordinateurs portables, les montres intelligentes, les écouteurs sans fil, les caméras, les consoles de jeux, etc. Elles alimentent ces appareils en énergie pour les rendre portables et autonomes.
Énergie renouvelable
Les batteries sont utilisées dans les systèmes de stockage d’énergie pour les installations d’énergie renouvelable, comme les panneaux solaires et les éoliennes.
Les batteries permettent de stocker l’énergie produite pendant les périodes de faible demande ou lorsque les sources d’énergie renouvelable sont actives, puis de la restituer lorsque la demande est plus élevée ou lorsque les sources ne sont pas disponibles.
Systèmes d’alimentation de secours
Les batteries sont utilisées dans les systèmes d’alimentation de secours, tels que les onduleurs, pour fournir de l’électricité en cas de panne de courant.
Les batteries sont utilisées dans les maisons, les entreprises, les centres de données, les hôpitaux, etc., pour assurer un fonctionnement continu des équipements critiques pendant une coupure d’électricité.
Stockage d’énergie stationnaire
Les batteries sont utilisées pour le stockage d’énergie à grande échelle dans les systèmes de stockage stationnaires.
Cela comprend le stockage d’énergie sur le réseau électrique pour équilibrer l’offre et la demande, améliorer la stabilité du réseau et faciliter l’intégration des énergies renouvelables.
Équipements médicaux
Les batteries sont utilisées dans divers équipements médicaux, tels que les appareils de surveillance, les pompes à perfusion, les respirateurs, les défibrillateurs portables, etc.
Les batteries assurent l’alimentation continue de ces dispositifs essentiels dans les environnements médicaux.
Ces exemples ne sont qu’une sélection des nombreuses applications des batteries. En fonction des avancées technologiques et des besoins émergents, de nouvelles applications vont très vite apparaître. On associera de plus en plus batteries à croissance économique et on parlera de plus en plus de batterie (isation) de la société comme on a parlé d’informatisation de la société depuis 1980.

Un autre point important concerne le recyclage des batteries. Les nouvelles voies de recyclage visent à augmenter les taux de récupération des matériaux. Par exemple, la récupération du graphite, un composant qui représente environ 15 à 25 % du poids d’une batterie.

L’intelligence artificielle : quel danger ?

L’intelligence artificielle : quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens
En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

ChatGPT: danger majeur pour l’humanité ?

ChatGPT: danger majeur pour l’humanité ?

Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Nouvelles technologies–ChatGPT : disponible en France

Nouvelles technologies–ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

Sciences et société : Des implants cérébraux sur les humains

Des implants cérébraux sur les humains

L’Agence américaine des médicaments, la FDA, a donné son autorisation à Neuralink pour mettre en place un essai clinique sur l’homme, a annoncé l’entreprise d’Elon Musk sur Twitter.

« C’est une première étape importante qui permettra un jour à notre technologie d’aider de nombreuses personnes », se félicite l’entreprise.
Implant cérébral

Le patron de SpaceX et Tesla l’a discrètement lancée en 2016, espérant fabriquer des implants cérébraux. En pratique, Neuralink doit concevoir des interfaces cerveau–ordinateur qui permettraient de contrôler des équipements à distance simplement par la pensée.

Les applications sont nombreuses. Il s’agirait, par exemple, de redonner de la mobilité aux personnes paralysées en leur permettant d’interagir avec leur environnement ou de manipuler facilement des bras mécaniques. Les implants pourraient aussi être une solution aux troubles neurologiques, promet Neuralink.

Les implants cérébraux peuvent être définis comme des dispositifs artificiels d’interface avec le cerveau. Ils permettent notamment de proposer des solutions de suppléance artificielle dans le cas de fonctions perdues, comme la parole.

Ces avancées technologiques se révèlent particulièrement intéressantes, par exemple, pour offrir des nouveaux modes de communication à des individus atteints de paralysie sévère.

Mais si l’aide que promet cette technologie semble précieuse, elle suscite néanmoins un questionnement éthique qu’il est essentiel de saisir, alors même que la technologie se développe.

témoin cet article de : Éric Fourneret Philosophe, Braintech Lab (Inserm, U205), équipe « Neurotechnologies et Dynamique des Réseaux », Université Grenoble Alpes (UGA)

Blaise Yvert
Directeur de recherche à l’Inserm, responsable de l’équipe Neurotechnologies et Dynamique des Réseaux, Inserm

Clément Hébert
Chargé de recherche implants Neuronaux, neuroprothèses, Inserm U1216 Grenoble Institut des Neurosciences, Université Grenoble Alpes (UGA)


Deux approches

Comprendre le fonctionnement du cerveau et améliorer nos capacités d’intervention pour remédier à certains de ses dysfonctionnements font partie des défis majeurs relevés par les neurosciences de ces dix dernières années. Et deux approches différentes et de grande envergure se sont concrétisées.

Dans la première, avant tout théorique, il s’agit de modéliser de manière réaliste le fonctionnement du cerveau grâce à des réseaux de neurones artificiels (informatiques ou électroniques) : c’est l’objectif du projet européen Human Brain Project. Dans la seconde, pragmatique, on cherche à développer des implants cérébraux pour enregistrer et stimuler le plus grand nombre de neurones possibles : c’est le but du vaste projet américain Brain Initiative, ou encore du projet européen Braincom.

D’ici très peu de temps, arrivera donc logiquement le moment où l’on disposera d’une part de vastes réseaux artificiels neuromimétiques, et d’autre part d’interfaces à très haute résolution permettant un couplage bidirectionnel (enregistrement et stimulation) avec des millions de neurones du cerveau. Or la fusion de ces deux mondes technologiques, prévisible, conduirait à l’émergence de vastes réseaux hybrides couplant l’activité du cerveau avec celle de réseaux artificiels. Et ce n’est pas de la pure science-fiction : des preuves de concept ont déjà été fournies par des réseaux hybrides simples, à l’instar de la technique de « dynamic clamp ».

Née à la fin des années 1990, la technique de dynamic clamp permet de coupler un neurone artificiel à un neurone réel par le biais d’une électrode intracellulaire : l’activité de l’un modifie celle de l’autre de manière bidirectionnelle. Et à l’avenir, l’avènement d’implants intégrant un grand nombre de microélectrodes extracellulaires – et assurant chacune une liaison bidirectionnelle stable avec un neurone individuel – devrait permettre la construction de réseaux hybrides à grande échelle, y compris in vivo au niveau de vastes régions cérébrales.

Certes, ce n’est pas encore d’actualité. Mais force est de constater que la route n’est sans doute plus si longue. En effet, des réseaux neuromorphiques sont déjà capables d’apprendre automatiquement à reproduire l’activité d’ensembles de neurones réels enregistrés par un implant cérébral. Cela signifie que l’on dispose déjà de la technologie permettant à plusieurs neurones réels de contrôler des réseaux artificiels complexes. Et inversement, on sait aussi s’appuyer sur des réseaux artificiels pour stimuler, de manière plus ou moins précise, des neurones réels.

Le développement d’implants cérébraux permet ainsi d’entrevoir l’avènement d’un couplage hybride entre le cerveau et de vastes réseaux artificiels. L’optimisation de ces technologies autorisera la simulation des neurones artificiels grâce à des circuits neuromorphiques à très basse consommation énergétique, et rendra possible, à terme, l’implantation de ces technologies d’hybridation.

Audition d’Éric Fourneret lors de la consultation sur l’intelligence artificielle et le transhumanisme organisée par la MGEN et la Commission nationale Française pour l’UNESCO.
Dans ce contexte, et même si l’implantation de dispositifs artificiels dans le corps n’est pas quelque chose de nouveau, les frontières traditionnelles entre ce qui est naturel et artificiel, entre l’homme et la machine, entre le vivant et l’inanimé, deviennent plus ambiguës. Une des principales questions soulevées, si ce n’est la principale à partir de laquelle toutes les autres se posent, est alors la suivante : quelle « forme de vie » la technologie des implants cérébraux peut-elle produire ?

La nature humaine en question

Il n’est toutefois pas question de se laisser embarquer dans une ambition éthique réductrice ne s’attardant que sur les scénarios du pire (collapsologie), ou à l’inverse ne considérant que les scénarios du mieux (discours technoprophétique). On le sait, chaque nouvelle technologie est porteuse de bienfaits pour les êtres humains, tout en nécessitant souvent une transformation sociale (par exemple, pour ajuster le cadre normatif de l’action sociale). Mais elle suscite parfois de vives interrogations quant aux effets indésirables liés à son utilisation, qu’il faudrait gérer moralement, socialement et juridiquement.

De la même manière, le développement d’implants cérébraux nous place sur cette ligne de crête, entre bienfaits et dérives potentielles. En effet, il ne s’agit pas d’intervenir sur un organe quelconque. C’est du cerveau qu’émerge notre sentiment de présence au monde, c’est-à-dire notre conscience. Et d’elle dépend notre capacité à saisir le monde et soi-même au moyen d’un même acte : de penser la frontière entre l’être humain et le monde et, simultanément, de penser l’articulation entre les deux. Or l’hybridation du cerveau avec des dispositifs électroniques possède d’autre part un potentiel d’impact sans précédent dans notre façon de nous représenter l’Homme. Et pour cause…

Il n’existe pas, de façon naturelle, d’êtres humains dont le fonctionnement neurophysiologique du cerveau s’organise sous l’influence de composants électroniques implantés, voire à terme, de réseaux de neurones artificiels. Aussi, cette séparation conceptuelle entre l’inné à l’Homme et les artifices acquis pourrait-elle rendre difficile la catégorisation sociale de l’individu équipé d’un implant cérébral. Ni totalement humain, ni totalement machine, il est un mélange de deux réalités différentes dont le caractère hybride pourrait produire une nouvelle unité humaine dans le corps biologique.

L’implant cérébral, une prothèse parmi d’autres

On pourrait objecter qu’il existe d’ores et déjà des prothèses de hanche et des pacemakers. L’implant cérébral est-il si différent de ces dispositifs artificiels qui, socialement, ne posent pas de difficulté particulière ?

On pourrait répondre par la négative. Si l’implant cérébral est socialement perçu comme le prolongement électronique du cerveau d’un individu, de la même manière qu’une jambe prothétique prolonge le corps, alors il n’est pas différent d’une prothèse traditionnelle – la conscientisation de la frontière entre l’Homme et le monde étant maintenue dans son fonctionnement originel. Dans ce cas, l’implant constitue une sorte de projection organique, dans l’acceptation qu’en a faite Canguilhem : ce dispositif artificiel possède un sens biologique, sa fonction consistant à compenser la défaillance d’un organe naturel.

Cela pourrait néanmoins poser problème. Si cette forme d’hybridation se révélait être une instance de régulation et d’organisation du rapport au monde étrangère à celle, originelle, laissant penser à une forme d’hétéronomie (telle l’expérience du cerveau dans une cuve imaginée par le philosophe Hilary Putnam en 1981), elle pourrait être considérée par la société comme une nouvelle corporéité humaine, où la conscience de quelque chose est médiée par le dispositif artificiel. En effet, si le substrat de la pensée s’anime en synergie avec des réseaux de neurones artificiels, la conscientisation de la frontière entre l’Homme et le monde s’artificialise. Or dans ce cas, l’hybridation est susceptible d’être vécue, à tort ou à raison, comme dénaturante. Et cela pourrait conduire à transformer les systèmes de normes et de règles qui encadrent les conduites au sein d’une collectivité composée d’êtres humains hybrides, et d’autres qui ne le sont pas.

Certes, notre contact avec le monde est de plus en plus médié par des artifices, sans aucune référence faite aux implants cérébraux – comme en témoignent les téléphones portables, ordinateurs et autres écrans à travers lesquels on entre en contact avec le réel. Mais comme nous l’avons déjà souligné, avec ces implants, la recherche s’oriente vers une technologie d’hybridation directe entre le cerveau et des réseaux de neurones artificiels. Et dans ces conditions, il importe de se pencher sérieusement sur la façon dont cette technologie peut affecter notre représentation de la « nature humaine ».

L’une des plus importantes caractéristiques de l’Homme est d’avoir inventé et créé des techniques et des technologies pour satisfaire ses besoins et compenser ses vulnérabilités, selon ses facultés et son intelligence, selon sa volonté et ses désirs. Il suffit qu’une chose soit, d’une certaine manière, pour être déterminée dans son développement et dans sa destination. Aussi, que l’être humain soit une espèce technicienne – particularité qu’il partage à des degrés différents, on le sait aujourd’hui, avec d’autres animaux – détermine-t-il sa destination sous la forme d’un effacement de la frontière entre nature et artifice.

Considérant que le monde lui offre des possibilités pour répondre à ses besoins et innover pour s’opposer aux misères de la vie, l’humanité est un entrelacement, de plus en plus serré, de la nature et de la technique. Bien qu’étant autre que la technique, elle habite le monde par et dans la technique. Et son évolution révèle une frontière entre le naturel et l’artifice beaucoup moins catégorique qu’on ne le croit : au cours du temps, elle est devenue de plus en plus poreuse. On ne peut donc pas définir la nature humaine en faisant abstraction des technologies par lesquelles l’humanité habite le monde. Voilà pourquoi, penser les implications éthiques du développement des implants cérébraux consiste à penser ces liens étroits entre l’Homme et la technique.

Cette réflexion, bien entendu, ne s’inscrit pas dans une démarche dogmatique qui prendrait la forme d’une collapsologie ou, à l’inverse, d’une prophétie technologique. Il est en effet du rôle de la philosophie et de l’éthique d’interroger par la seule raison les implications des nouvelles neuro-technologies, en s’en tenant aux faits et non à des scénarios de science-fiction sans fondements dans le réel. Ces faits sont fournis par les neuroscientifiques et par leurs résultats. Voilà pourquoi la séparation, encore trop marquée, entre la réflexion philosophique et les recherches technoscientifiques en cours, est embarrassante et inadéquate dans l’examen des implications éthiques des implants cérébraux.

Pour les étudier, il faudrait bien au contraire une interaction forte et étroite entre, d’une part, les acteurs des sciences humaines et sociales, et d’autre part, les neuro et techno-scientifiques, ingénieurs, informaticiens, biologistes et médecins. C’est ensemble qu’ils devraient poursuivre ce vieux débat à la croisée de tous les savoirs : « Qu’est-ce qu’être humain ? ». Ensemble qu’ils devraient examiner ce qui engage notre condition en tant qu’être humain, et réfléchir aux critères d’évaluation du processus technologique que représentent les implants cérébraux. On peut alors dire que c’est vers l’altérité Homme-Technologie, et non vers une dualité indépassable, qu’il faut se tourner pour mieux connaître et comprendre quels sont les enjeux du développement des implants cérébraux concernant nos représentations de la nature humaine.

Cet article s’inscrit dans la continuité de la consultation publique sur l’intelligence artificielle et le transhumanisme organisée en 2020 par la MGEN et la Commission nationale Française pour l’Unesco. Une partie des auditions menées dans le cadre de cette consultation sont visionnables en ligne.

ChatGPT : disponible en France

ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

Nouvelles technologies : celles des élites et celles du peuple

Nouvelles technologies : celles des élites et celles du peuple

Depuis la création d’internet, l’émergence successive et l’adoption à grande échelle de technologies digitales – gratuites comme les moteurs de recherche ou les médias sociaux – peuvent donner l’idée d’une utilisation relativement uniforme de ces technologies. Tous sur Facebook, sur Instagram, sur TikTok ou plus récemment, sur ChatGPT : est-ce vraiment le cas ? Par David Dubois, expert international en big data et consommation digitale et professeur de Marketing à l’école internationale de management à l’INSEAD ( dans la Tribune)

À l’opposé de cette image d’Épinal, une autre hypothèse est possible : les technologies digitales ne reproduisent-elles pas des inégalités existantes avec le risque de les aggraver ? Plus simplement, les technologies seraient-elles « un fait d’élites » ?

Pour explorer ces hypothèses, comparons l’intérêt porté sur deux des technologies les plus récentes, TikTok et ChatGPT, sur le marché de l’attention qu’est Google (1). Avec 92% de parts de marché, le moteur de recherche est en effet un très bon capteur de nos intérêts qui transparaissent dans les centaines de millions de recherches quotidiennes dans l’Hexagone : les mots-clés du moment, dans tous les domaines de la vie comme la politique, la santé, les marques… et nouvelles technologies.

D’un côté TikTok, plateforme de vidéos courtes venue de Chine qui connait une croissance insolente chez les plus jeunes, révolutionne la communication des marques, et soulève des interrogations quant à la façon dont elle stocke et utilise les données des 15 millions d’utilisateurs de la plateforme. De l’autre, ChatGPT, produit de l’entreprise californienne OpenAI qui n’est plus à présenter depuis que tous les internautes se sont essayé à tester – et utiliser – son intelligence artificielle, et qui nourrit les fantasmes sur ce que pourrait être le monde de demain.

Que révèlent les recherches Google par département pour ces deux technologies ? TikTok et ChatGPT font tous deux partie des mots les plus recherchés en France depuis le début de l’année. Mais au-delà, les recherches traduisent des cartographies bien différentes pour ces deux plateformes (2). Le croisement de recherches par département avec d’autres statistiques sur les dynamiques économiques, politiques et sociales de nos départements met au jour des portraits très contrastés de la France de ChatGPT et celle de TikTok. Quels sont les portraits types des territoires qui s’intéressent plus à chacune de ces technologies ?

La France de ChatGPT est, en moyenne, plus riche, plus éduquée et moins industrialisée. Les cinq départements générant le plus de recherches pour ChatGPT, les Hauts-de-Seine, Paris, le Rhône, le Val-de-Marne et la Haute-Garonne illustrent bien l’idée que l’intensité des recherches pour l’outil AI vient d’abord de départements ayant une proportion de CSP+ plus importante que la moyenne française. Cette France relativement plus dynamique et élitiste est de fait moins exposée aux maladies chroniques (comme le stress ou certaines maladies cardio-vasculaires, souvent associés à des conditions sociales plus défavorables (3). Preuve de leur dynamisme, les départements manifestant le plus d’intérêt pour Chat GPT sont ceux où la population s’est le plus accrue sur les dix dernières années.

Par contraste, la France de TikTok est, en moyenne, plus populaire et abstentionniste. Les cinq départements en haut du classement des recherches pour TikTok, la Seine-Saint-Denis, le Val-d’Oise, la Seine-et-Marne, l’Eure-et-Loir et l’Essonne, se distinguent par un profil de familles nombreuses. Les départements générant le plus de recherches pour le réseau social se caractérisent aussi par une plus forte exposition à des problèmes de violence (ex : consommation de drogue plus prononcée). L’habitat HLM y est plus développé et les inégalités salariales chez les jeunes y sont bien plus fortes que la moyenne française.

La France de TikTok et celle de ChatGPT

Bien qu’imparfaits, ces portraits croisés n’en sont pas moins révélateurs : la France de TikTok et celle de ChatGPT ne se ressemblent pas

D’un côté, un réseau social au contenu engageant, parfois addictif, capteur d’une attention peut-être déjà vacillante dans des territoires fragiles et facteur potentiellement aggravant de problèmes d’attention bien réels ; de l’autre une intelligence artificielle propice à la connaissance. En conclusion la technologie peut être autant facteur de division que de connectivité et le risque de recréer des barrières digitales via des utilisations très différentes de la technologie est bien réel. Que l’on se garde d’ouvrir de nouvelles fractures entre des digital natives maniant savamment la technologie comme outil, et des digital naïves passifs, réceptacles du spectacle digital. Dans un pays si engagé sur la question de l’égalité, prenons garde qu’au-delà des inégalités économiques, nous ne fassions pas l’impasse de phénomènes potentiellement annonciateurs d’un accroissement des inégalités cognitives sur notre territoire.

______

(1) Pour une compréhension plus fine des données Google comme mesure du marché de l’attention, voir La France selon les recherches Google, 2022, par David Dubois)

(2) Les analyses Elles reposent principalement sur des analyses de corrélation, effectuées via le site www.lafranceenligne.com. Celles-ci permettent de dégager statistiquement le profil « type » des départements recherchant le plus ou le moins un mot-clé.

(3) Voir par exemple, the Status Syndrome, 2005, par Michael Marmot.

Nouvelles techs :L’intelligence artificielle est-elle vraiment créative ?

Nouvelles techs :L’intelligence artificielle est-elle vraiment créative ?

Par
Chloe Preece
Associate Professor in Marketing, ESCP Business School

Hafize Çelik
PhD candidate in management, University of Bath dans The Conversation

Les ordinateurs peuvent-ils être créatifs ? Alors que les outils d’intelligence artificielle (IA) générative tels que ChatGPT, Midjourney, Dall-E, pour ne citer qu’eux, font depuis peu beaucoup parler d’eux, de nouvelles questions se posent : la créativité est-elle l’apanage de l’être humain ?

C’est la question que soulèvent quelques avancées récentes et remarquables dans le domaine de l’IA générative : par exemple, une œuvre d’art créée par une IA, Le portrait d’Edmond de Belamy, a été vendue aux enchères par la maison de vente Christie’s en 2018 pour la somme de 432 500 dollars, soit presque 45 fois son estimation la plus élevée. Cette œuvre d’art a été créée par un réseau antagoniste génératif alimenté par un ensemble de données de quelque 15 000 portraits couvrant six siècles.

De même, plusieurs producteurs de musique, à l’instar d’Alex Da Kid, nommé aux Grammy Awards, ont utilisé l’IA (en l’occurrence Watson d’IBM, dès 2016) pour produire des « hits » et alimenter leur processus créatif. Wayne McGregor, chorégraphe et metteur en scène primé, utilise quant à lui l’IA pour faire naître de nouveaux mouvements dans ses créations.

Dans les cas cités ci-dessus, il y a toujours un être humain à la barre, chargé de la curation, c’est-à-dire de la sélection des résultats de l’IA en fonction de sa propre vision, qui conserve ainsi la paternité de l’œuvre. Pourtant, le générateur d’images Dall-E, par exemple, est capable de produire des images inédites sur n’importe quel thème en seulement quelques secondes.

Grâce au modèle de diffusion, qui consiste à rassembler d’énormes ensembles de données pour entraîner l’IA, celle-ci est désormais capable de transposer du texte en images inédites ou d’improviser une mélodie dans le style de n’importe quel compositeur, créant ainsi un nouveau contenu qui ressemble aux données d’entraînement, tout en étant différent.

Dans ce cas, la question de la paternité peut s’avérer plus complexe. À qui l’œuvre est-elle attribuable ? À l’algorithme ? Aux milliers d’artistes dont les œuvres ont été récupérées pour produire l’image ? Au prompteur qui a réussi à décrire le style, la référence, le sujet, l’éclairage, le point de vue et même l’émotion suscitée ?

Pour répondre à ces questions, il faut revenir sur une éternelle question : qu’est-ce que la créativité ?

Selon Margaret Boden, professeure de recherche en sciences cognitives à l’Université du Sussex, il existe trois types de créativité : la créativité combinatoire, exploratoire et transformationnelle. La créativité combinatoire associe des idées familières. La créativité exploratoire génère de nouvelles idées en explorant des « espaces conceptuels structurés », c’est-à-dire que l’on modifie légèrement un mode de pensée reconnu en explorant son contenu, ses limites et son potentiel. Ces deux types de créativité ne sont pas très éloignés de la production d’œuvres d’art par des algorithmes d’IA générative : on crée de nouvelles œuvres dans le même style que des millions d’autres à partir de données d’apprentissage, on parle alors de « créativité synthétique ».

La créativité transformationnelle, en revanche, consiste à générer des idées qui dépassent les structures et les styles existants pour en créer de nouveaux, tout à fait inédits. Elle est au cœur des débats actuels sur l’IA en ce qui concerne l’utilisation équitable et les droits d’auteur. Il s’agit d’un domaine juridique encore très peu exploré. Il faudra donc attendre la décision des tribunaux pour en savoir plus.

Les processus créatifs de l’IA se caractérisent avant tout par leur dimension systématique. Ils ne sont pas spontanés, contrairement aux processus créatifs de l’homme. L’IA est programmée pour traiter les informations d’une manière bien définie dans le but d’obtenir des résultats particuliers de manière prévisible, même s’ils sont souvent inattendus.

Voilà peut-être la différence fondamentale entre les artistes et l’IA : alors que les artistes sont tournés vers eux-mêmes et vers le produit, l’IA est très axée sur le consommateur et orientée par le marché – l’art que l’on obtient, c’est celui que l’on a demandé mais pas forcément celui dont on a besoin.

Pour l’instant, il semblerait que l’IA générative fonctionne mieux lorsque l’humain intervient dans le processus. La créativité synthétique de l’IA pourrait alors servir de catalyseur pour stimuler la créativité humaine, en la nourrissant plutôt qu’en la supplantant.

Comme souvent, tout le battage médiatique sur le potentiel disruptif de ces outils dépasse la réalité. De fait, l’histoire de l’art nous montre que la technologie a rarement écarté radicalement l’homme des œuvres qu’il souhaitait réaliser.

Prenons l’exemple de l’appareil photo. À l’époque, on craignait qu’il n’entraîne la disparition des peintres portraitistes. Dès lors, quelles sont les implications commerciales du recours à la créativité synthétique de l’IA ?

La créativité synthétique à la demande, telle qu’elle est actuellement générée par l’IA, constitue sans conteste une aubaine pour les entreprises et le marketing. Voici quelques exemples récents :

Publicité et IA : le groupe de communication Ogilvy Paris a utilisé Dall-E pour créer une version IA du tableau La laitière de Vermeer pour les yaourts Nestlé ;

La Laitière de Nestlé (2022).
Design de mobilier et IA : les designers Kartell, Philippe Starck et Autodesk ont recouru à l’IA pour créer la première chaise conçue à l’aide de l’IA pour une fabrication plus durable ;

Stylisme et IA : le service de stylisme Stitch Fix a utilisé l’IA pour réaliser des visuels personnalisés de vêtements en fonction des préférences des clients, telles que la couleur, le tissu et le style.

Il existe une infinité de possibilités d’utilisation, et celles-ci requièrent une autre forme de créativité : la curation. Il existe ce qu’on appelle dans le jargon des « hallucinations de l’IA », c’est-à-dire des inepties créées par l’IA. C’est là que l’humain intervient : il doit donner du sens, c’est-à-dire exprimer des concepts, des idées et des vérités, et non se contenter de satisfaire les sens. Le travail de curation est donc indispensable car il consiste à opérer des choix et à élaborer une vision unifiée et attrayante. À l’heure actuelle, l’IA n’est pas encore capable de rivaliser avec l’humain sur cette dimension.

Loi Numérique : Une auberge espagnole !

Loi Numérique : Une auberge espagnole !

Une loi de régulation de l’espace numérique a été au conseil des ministres. Une loi un peu fourre-tout qui mélange un peu tous les problèmes: pour protéger les utilisateurs tout autant que pour assurer la souveraineté numérique. Une sorte de loi auberge espagnole.

Le projet de loi visant à « réguler et sécuriser l’espace numérique » sera présenté ce mercredi matin en conseil des ministres. Condensé de plusieurs mesures discutées ces derniers mois, il vise à éradiquer les comportements qui « sapent la confiance des citoyens dans le numérique et leur font questionner la transition numérique », dixit le ministre, lors d’une conférence de presse. Une problématique un peu courte pour traiter toutes les questions relatives à l’espace numérique.

Le texte, présenté comme transpartisan traite en vrac les problèmes du phishing, du cyberharcèlement, de l’accès à la pornographie par les mineurs ou encore de la concurrence sur le marché du cloud. Le projet se nourrit des récentes textes européens de régulation des plateformes (le DSA et le DMA), de rapports parlementaires (sur la souveraineté numérique et sur la pornographie), et de contributions du conseil national de la refondation (la consultation citoyenne lancée fin 2022). Les mesures qu’il porte -encore imprécises sur certains détails techniques- devraient être discutées au parlement dès cet été.

Comme le rappelle le ministère, la cybermalveillance frappe avant tout les citoyens les plus vulnérables : personnes âgées, enfants et personnes moins éduquées aux enjeux du numérique. « 18 millions de français en ont été victimes d’un acte cybermalveillant, dont la moitié a perdu de l’argent ou subi une usurpation d’identité au passage », chiffre Jean-Noël Barrot.

Le texte prévoit également d’alourdir les sanctions contre un autre fléau de la présence en ligne, le cyberharcèlement. Si une personne est reconnue coupable, elle recevra une peine complémentaire de bannissement des réseaux. « L’objectif est de mettre fin au sentiment d’impunité en ligne en enlevant les chefs de meutes de l’équation, à l’image de ce que fait le dispositif des interdits de stade », précise le ministre. Dernière mesure de ce volet du protection des citoyens : l’encadrement les jeux numériques très spéculatifs, notamment liés au web3, afin d’éviter l’accès aux mineurs et de prévenir les mécanismes de blanchiment d’argent.

les mineurs. Le ministre constate qu’à 12 ans, un tiers des enfants français a déjà été exposé, avec des répercussions psychologiques. « Les sites pornographiques ne vérifient pas l’âge malgré la loi [de 2020, ndlr]. Ils préfèrent les recettes publicitaires et le trafic à la santé des enfants », assène-t-il. Le sujet n’est pas nouveau, et une procédure judiciaire de demande de blocage contre cinq sites est d’ailleurs en cours. Son verdict sera rendu début juillet.

Le dernier volet du projet de loi s’attaque à la mainmise des trois géants américains (Amazon Web Services, Microsoft Azure et Google Cloud) sur le marché du cloud. « Nous voulons mettre fin aux abus de position dominante, et en finir avec la loi du plus fort », ambitionne le ministre. Concrètement, le texte prévoit d’interdire les frais de transfert d’un fournisseur de cloud à un autre, une pratique jugée comme anticoncurrentielle -à ne pas confondre avec les frais de migrations, qui couvrent les frais techniques du passage des données d’un serveur à un autre et des réglages techniques nécessaire.

De plus, le projet prévoit d’encadrer la remise de crédit informatique, une pratique très répandue dans ce marché, qui consiste à fournir gratuitement des services cloud aux clients afin de les fidéliser. « Le crédit informatique, s’il est trop important, est de nature à distordre la concurrence. Nous voulons revenir à la logique d’échantillon, qui n’enferme pas l’entreprise dans un cloud », développe le ministère. Par ailleurs, le texte confie à l’Arcep [le régulateur des télécoms, ndlr] de nouvelles compétences pour accroître l’interopérabilité entre les différents cloud, et donc faciliter le passage d’un fournisseur à un autre. « La réussite de cette mesure dépendra du standard choisi et de son application », précise le ministère.

Objets connectés: Le risque des pannes transmissibles

Objets connectés: Le risque des pannes transmissibles

Par
Amal Guittoum
Doctorante en Web Sémantique appliqué à l’Internet des objets, Université Grenoble Alpes (UGA), Orange Innovation

Les objets connectés se font aujourd’hui une place dans notre vie quotidienne, des ampoules commandables à distance aux caméras de surveillances connectées. Mais ils sont très vulnérables aux pannes : un objet connecté tombe en panne en moyenne 4 heures par jour à cause de pannes d’alimentation électrique, d’interruptions du réseau ou encore de défaillances du matériel informatique.

Comme leur nom l’indique, ces objets connectés sont interdépendants pour échanger des services et des données – par exemple, l’assistant vocal Alexa doit échanger des informations et contrôler les interrupteurs pour allumer ou éteindre les ampoules à la demande, mais aussi les serrures, ou la machine à café connectée. Par conséquent, une panne sur un objet connecté se propage aux autres… de la même façon que le Covid-19 pour les humains. Par exemple, si votre ampoule connectée tombe en panne, Alexa pourrait être affectée et ne plus répondre à vos requêtes.

Les pannes en cascade engendrent donc des dysfonctionnements d’appareils connectés parfois gérés par des acteurs différents (constructeurs, opérateurs réseau par exemple). La dégradation du service proposé aux utilisateurs tend à générer plus d’appels aux services clients et de sollicitations des techniciens, ce qui augmente le coût de gestion des objets connectés (par exemple, pour l’opérateur Orange, le coût d’un appel client est 20 euros et une intervention technique coûte 100 euros).

Ces pannes peuvent également générer des pertes d’énergie dans les environnements connectés : par exemple, il semble que 25 à 45 % d’énergie des systèmes intelligents de chauffage, ventilation et climatisation est gaspillée en raison de pannes.

La stratégie que nous développons pour soigner les pannes en cascade : repérer la source de la panne et la réparer grâce à des techniciens virtuels qui surveillent chacun un groupe d’objets connectés. Amal Guittoum, Fourni par l’auteur
Les solutions développées par les chercheurs et les opérateurs d’Internet des objets ressemblent en fait aux solutions proposées pour lutter contre le Covid-19 : d’une part, maîtriser les relations « sociales » entre les objets connectés, pour identifier rapidement les « cas contacts » et faciliter le diagnostic ; et d’autre part « vacciner » le réseau d’objets connectés. Pour détecter les pannes, isoler les objets concernés et corriger les pannes en cascade, nous utilisons des « techniciens virtuels ».

L’internet des objets (IoT) est un concept très utilisé actuellement : en France, on le retrouve notamment sous la forme de villes connectées avec des transports « intelligents » ou de bracelets connectés pour surveiller l’état de santé de personnes âgées.

Ces objets connectés font partie d’un seul réseau, appelé « internet des objets ». Ce réseau géant est organisé en sous-réseaux fonctionnels (par exemple le réseau « la maison connectée de Mme Dupont »), dans lesquels les objets connectés sont interdépendants. Ils partagent des « dépendances de service », lorsqu’un objet utilise les services d’un autre (Alexa et l’ampoule), ou encore des « dépendances d’état », lorsque l’état d’un objet dépend de l’état d’un autre (avec une règle d’automatisation, par exemple « ouvrir les fenêtres si le climatiseur est désactivé »).

Les objets connectés collectent des données – par exemple la température ambiante, des signes vitaux, des flux vidéo – et peuvent les transférer aux autres objets et applications pour créer des services intelligents, par exemple un service intelligent pour soigner les personnes âgées, ou un service de surveillance de la maison.

Ces objets peuvent aussi être gérés à distance (avec l’accord de l’utilisateur) et réparés lorsqu’ils tombent en panne.

En effet, si une panne survient sur un objet connecté, elle pourra parfois se propager en cascade sur les objets qui lui sont dépendants. L’impact de ce type de pannes « en cascade » est exacerbé par plusieurs facteurs. Tout d’abord, la grande taille des réseaux d’internet des objets (IoT) avec plus de 70 milliards d’objets connectés dans le monde (estimation pour 2025).

De plus, les objets connectés sont de plus en plus interconnectés – un phénomène accéléré par l’avènement de plates-formes (IFTTT ou SmartThings par exemple) qui permettent aux utilisateurs de créer des règles d’automatisation pour connecter leurs objets entre eux (« si le climatiseur est désactivé, alors ouvrir les fenêtres »).

Le troisième facteur est la gestion fragmentée des objets connectés et de leurs pannes par de nombreux acteurs différents : opérateurs, fournisseurs de service, constructeurs d’objets connectés par exemple, chacun proposant sa propre plate-forme. Chaque opérateur maîtrise seulement une sous-partie des liens de dépendances entre les objets connectés, ce qui complique le diagnostic des pannes en cascade, notamment l’identification de la source (quel objet a provoqué la panne initiale).

Maîtriser les relations sociales entre les objets connectés : un premier pas vers la résolution des pannes en cascade
Le premier pas vers la résolution des pannes en cascade sur les objets connectés est la reconnaissance automatique des liens de dépendances entre les objets connectés : deux objets connectés sont dépendants si l’un utilise les services de l’autre (Alexa est dépendante de l’ampoule connectée, et vice versa).

Nous avons inventé un outil qui permet de reconnaître les liens de dépendances entre les objets connectés.

Notre approche consiste à construire un « jumeau numérique » décrivant les objets et les liens de dépendances entre eux (services et données échangés). Un jumeau numérique représente un aspect du monde réel de façon virtuelle (numérique) et synchronisée.

Ces différentes informations sont décrites à l’aide d’un vocabulaire partagé (ou « ontologie ») que nous avons inventé – un bon moyen pour structurer et exploiter des informations hétérogènes.

En construisant le jumeau virtuel d’une maison « intelligente » pleine d’objets connectés, nous avons développé une preuve de concept : notre simulation permet bien d’identifier automatiquement les dépendances entre les objets connectés, même si celles-ci varient au cours du temps, ce qui n’était pas possible auparavant…..

Vacciner le réseau des objets connectés avec des agents autonomes : une solution automatique pour les pannes en cascade
Puis il faut aussi identifier la source de la panne en cascade et la corriger. Pour cela, nous utilisons des « techniciens virtuels » – des mini-applications autonomes qui surveillent les objets connectés.

Chaque agent veille sur un ensemble d’objets connectés. Lorsqu’un objet tombe en panne, son agent analyse ses symptômes (une température ou un usage de la mémoire anormal par exemple). Ensuite, cet agent utilise un système d’intelligence artificielle pour déterminer le type de la panne et les actions correctives. Si l’agent soignant ne peut pas corriger la panne, par exemple si la panne vient d’un objet géré par un autre agent, il sollicite les autres agents en analysant les liens de dépendances entre les objets, ce qui permet d’identifier la source de la panne et de la corriger.

Numérique : Une loi….auberge espagnole

Numérique : Une loi….auberge espagnole

Une loi de régulation de l’espace numérique sera présentée ce matin au conseil des ministres. Une loi un peu fourre-tout qui mélange un peu tous les problèmes: pour protéger les utilisateurs tout autant que pour assurer la souveraineté numérique. Une sorte de loi auberge espagnole.

Le projet de loi visant à « réguler et sécuriser l’espace numérique » sera présenté ce mercredi matin en conseil des ministres. Condensé de plusieurs mesures discutées ces derniers mois, il vise à éradiquer les comportements qui « sapent la confiance des citoyens dans le numérique et leur font questionner la transition numérique », dixit le ministre, lors d’une conférence de presse. Une problématique un peu courte pour traiter toutes les questions relatives à l’espace numérique.

Le texte, présenté comme transpartisantraite En vrac les problèmes du phishing, du cyberharcèlement, de l’accès à la pornographie par les mineurs ou encore de la concurrence sur le marché du cloud. Le projet se nourrit des récentes textes européens de régulation des plateformes (le DSA et le DMA), de rapports parlementaires (sur la souveraineté numérique et sur la pornographie), et de contributions du conseil national de la refondation (la consultation citoyenne lancée fin 2022). Les mesures qu’il porte -encore imprécises sur certains détails techniques- devraient être discutées au parlement dès cet été.

Comme le rappelle le ministère, la cybermalveillance frappe avant tout les citoyens les plus vulnérables : personnes âgées, enfants et personnes moins éduquées aux enjeux du numérique. « 18 millions de français en ont été victimes d’un acte cybermalveillant, dont la moitié a perdu de l’argent ou subi une usurpation d’identité au passage », chiffre Jean-Noël Barrot.

Le texte prévoit également d’alourdir les sanctions contre un autre fléau de la présence en ligne, le cyberharcèlement. Si une personne est reconnue coupable, elle recevra une peine complémentaire de bannissement des réseaux. « L’objectif est de mettre fin au sentiment d’impunité en ligne en enlevant les chefs de meutes de l’équation, à l’image de ce que fait le dispositif des interdits de stade », précise le ministre. Dernière mesure de ce volet du protection des citoyens : l’encadrement les jeux numériques très spéculatifs, notamment liés au web3, afin d’éviter l’accès aux mineurs et de prévenir les mécanismes de blanchiment d’argent.

les mineurs. Le ministre constate qu’à 12 ans, un tiers des enfants français a déjà été exposé, avec des répercussions psychologiques. « Les sites pornographiques ne vérifient pas l’âge malgré la loi [de 2020, ndlr]. Ils préfèrent les recettes publicitaires et le trafic à la santé des enfants », assène-t-il. Le sujet n’est pas nouveau, et une procédure judiciaire de demande de blocage contre cinq sites est d’ailleurs en cours. Son verdict sera rendu début juillet.

Le dernier volet du projet de loi s’attaque à la mainmise des trois géants américains (Amazon Web Services, Microsoft Azure et Google Cloud) sur le marché du cloud. « Nous voulons mettre fin aux abus de position dominante, et en finir avec la loi du plus fort », ambitionne le ministre. Concrètement, le texte prévoit d’interdire les frais de transfert d’un fournisseur de cloud à un autre, une pratique jugée comme anticoncurrentielle -à ne pas confondre avec les frais de migrations, qui couvrent les frais techniques du passage des données d’un serveur à un autre et des réglages techniques nécessaire.

De plus, le projet prévoit d’encadrer la remise de crédit informatique, une pratique très répandue dans ce marché, qui consiste à fournir gratuitement des services cloud aux clients afin de les fidéliser. « Le crédit informatique, s’il est trop important, est de nature à distordre la concurrence. Nous voulons revenir à la logique d’échantillon, qui n’enferme pas l’entreprise dans un cloud », développe le ministère. Par ailleurs, le texte confie à l’Arcep [le régulateur des télécoms, ndlr] de nouvelles compétences pour accroître l’interopérabilité entre les différents cloud, et donc faciliter le passage d’un fournisseur à un autre. « La réussite de cette mesure dépendra du standard choisi et de son application », précise le ministère.

12345...56



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol