Archive pour le Tag 'l’IA'

L’IA, test pour l’industrie européenne

 L’IA,  test pour l’industrie  européenne

L’intelligence artificielle est mise en avant lors de sommets et salons, mais la politique industrielle européenne ne s’est toujours pas mise à la hauteur du défi. Or, la domination américaine et chinoise dans l’IA révèle l’insouciance de l’Europe face aux risques, et son inconscience des enjeux économiques et géopolitiques qui se jouent. Il est urgent d’agir, à commencer par un Small Business Act européen. Par Quentin Adam, CEO de Clever Cloud. (dans La Tribune)

Le rapport Draghi, publié en septembre 2024, met en évidence une réalité inquiétante : l’Europe est en train de décrocher. L’écart de productivité avec les États-Unis est passé de 15 % en 2002 à 30 % en 2023. Ce n’est plus un simple retard, c’est une descente programmée vers l’insignifiance technologique.

Pendant que nous débattons et tergiversons, la prédominance américaine dans l’IA se renforce avec des projets comme Stargate et les avancées d’OpenAI, Google et les autres GAFAM. Par ailleurs, la Chine prouve avec DeepSeek sa capacité à proposer des alternatives compétitives avec des budgets asymétriques. Ces avancées ne sont pas neutres : elles imposent des narratifs étatiques et des biais culturels propres aux pays qui les développent.

L’Europe ne peut plus se contenter d’être un simple spectateur passif de cette dynamique. Des initiatives comme Mistral AI montrent que l’Europe peut encore jouer un rôle majeur. Mistral aurait pu rester une entreprise 100 % française et européenne, mais faute de soutien adéquat, elle a dû se tourner vers des capitaux américains. Ce n’est pas une fatalité, c’est un signal d’alarme. Nous avons la responsabilité de conserver nos talents, nos technologies et notre souveraineté sur le territoire européen.

Il est urgent de prendre conscience que nous avons les clés de notre avenir. Une solution simple et efficace existe : un Small Business Act européen. Il s’agirait d’obliger les grandes entreprises et les administrations publiques à réserver un pourcentage significatif de leurs commandes aux PME technologiques européennes. C’est la seule solution pour faire croître les entreprises.

L’ambition n’est pas simplement de conserver des emplois, mais bien d’en créer de nouveaux et de structurer un écosystème économique durable. Nous avons besoin d’entreprises dirigées par des leaders technologiques, des ingénieurs formés qui comprennent profondément les enjeux du secteur. Les succès comme Mistral AI prouvent qu’il faut des ingénieurs à la tête de nos entreprises, tout comme c’est le cas pour la totalité des GAFAM ou encore pour des entreprises chinoises comme DeepSeek. Cela doit changer, et c’est simple à mettre en place via les fonds de fonds de Bpifrance.

Il est temps d’arrêter d’investir uniquement dans des gestionnaires et de financer ceux qui savent construire. Par ailleurs, cette révolution technologique ne doit pas se limiter aux seules entreprises de la tech. Nous devons irriguer l’ensemble du tissu économique en intégrant ces technologies dans l’industrie traditionnelle, l’agriculture, la logistique et l’ensemble des secteurs productifs. L’IA et les infrastructures numériques doivent être utilisées pour rendre plus performantes toutes nos entreprises, et pas seulement celles de la tech. L’objectif n’est pas seulement de créer quelques champions visibles, mais bien de moderniser tout le socle économique français et européen.

L’Europe est au pied du mur. L’opportunité de nous ressaisir est encore là, mais nous avons atteint un point de non-retour. Si nous ne nous réveillons pas maintenant, nous perdrons à jamais notre place dans l’économie numérique mondiale.

The Law of Accelerating Returns, théorisée par Ray Kurzweil, explique que les avancées technologiques s’accélèrent de façon exponentielle à mesure que de nouvelles briques sont développées. Cela signifie que même en ayant pris du retard, il est possible de rebâtir un écosystème numérique en s’appuyant sur les progrès récents, à condition d’investir stratégiquement.

Ainsi, nous devons mettre en place un plan ambitieux basé sur :

  • l’investissement massif dans les technologies stratégiques (cloud, IA, infrastructures numériques).
  • l’alignement des politiques industrielles, commerciales et concurrentielles pour favoriser nos entreprises.
  • le soutien actif aux talents techniques et la valorisation de nos ingénieurs.

Il faut également combattre les narratifs défaitistes. Lorsque le directeur de Bpifrance déclare que la France ne pourra jamais rivaliser avec les géants américains, il nourrit une culture de l’indigence, et un défaitisme d’état. C’est une erreur stratégique. L’Europe a tout pour réussir, et il est impératif de déconstruire ces discours qui nous enferment dans l’inaction.

Cela doit s’accompagner de la création d’un ministère régalien du numérique. Ce ministère, qui pourrait être échafaudé par le haut Commissariat au Plan nouvellement nommé, doit devenir un pilier stratégique de notre politique industrielle, au coté des efforts structurants de Bpifrance. C’est un impératif, pas un luxe.

Le numérique n’est pas un secteur parmi d’autres, c’est l’infrastructure du XXIᵉ siècle. Il est temps d’arrêter de croire que le numérique est un simple monde virtuel à la Matrix, une affaire de geeks. Nous sommes dans une guerre industrielle et économique. Soit nous nous réveillons, soit nous disparaissons.

Nous avons les talents, les ressources et la capacité d’innovation. Il ne manque qu’une volonté politique forte pour structurer un écosystème numérique souverain et performant. L’Europe peut encore faire le choix de la puissance numérique. Mais ce choix ne pourra être effectif qu’avec une transformation radicale de notre approche industrielle et politique. Il est temps d’un vrai wake-up moment.

L’IA, Un système aussi d’exploitation global ?

L’IA, Un système aussi d’exploitation global ?

Un collectif, parmi lesquelles Amnesty International et la Ligue des droits de l’homme, recommande, dans une tribune au « Monde », de placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle.

L’intelligence artificielle (IA) connaît un développement foudroyant, et nos dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux de ces nouvelles technologies, uniquement vues sous le prisme de la croissance, des gains de productivité et des profits. L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. Parce que ces constats ne figureront pas au programme officiel du Sommet mondial sur l’IA [qui se tient à Paris les 10 et 11 février], nous, organisations de la société civile, vous les rappelons ici.

Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre : ces technologies ont déjà des effets très concrets pour les populations les plus vulnérables et les plus discriminées et portent largement atteinte aux droits humains. En s’appuyant sur des bases de données biaisées et en intégrant les préjugés de ses concepteurs, l’IA perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités. A cela s’ajoute le fait que le déploiement de ces systèmes d’IA s’inscrit dans le contexte des structures discriminatoires et inégalitaires qui existent dans les sociétés du monde entier. Le recours à ces technologies, souvent sur fond de politiques d’austérité, amplifie les discriminations dans l’accès à la santé, à l’emploi, aux services publics ou aux prestations sociales. En témoignent les scandales ayant éclaté ces dernières années : biais sexistes et racistes des algorithmes de santé, algorithme des services de l’emploi autrichien qui refuse d’orienter les femmes vers le secteur informatique, profilage et discrimination des usagers de la Caisse nationale des allocations familiales en France, au Danemark ou aux Pays-Bas.

L’IA chinoise Deepseek Interdite en Italie

L’IA chinoise Deepseek Interdite en Italie

En attendant des éclaircissements, l’Italie interdit l’intelligence artificielle chinoise  » Deepseek ». Le gendarme italien des données estime en effet que «les données de millions d’Italiens sont en danger» et a exigé de DeepSeek des clarifications sur la nature des données personnelles collectées, leurs finalités ainsi que leur éventuel stockage sur des serveurs situés en Chine. En 2023, l’autorité italienne avait également suspendu les activités de l’IA américaine ChatGPT avant qu’il ne se conforme à la réglementation européenne.

« Les Prophètes de l’IA » contestés

« Les Prophètes de l’IA » contestés

Le journaliste Thibault Prévost affirme que les d’IA génératives ne sont pas fiables (et ne le seront sans doute jamais), nuisent à la planète, alimentent une probable bulle financière et perpétuent les biais sexistes et racistes.

Par Olivier Clairouin dans Le Monde

Dans Les Prophètes de l’IA (Lux, 216 pages, 18 euros), le journaliste Thibault Prévost promène son scalpel à la surface du phénomène médiatique planétaire qu’est devenue l’intelligence artificielle (IA) pour en extraire les ressorts économiques et idéologiques. Son ambition est de répondre à un apparent paradoxe : alors que les entreprises de la Silicon Valley ont toujours soutenu que leurs produits étaient bénéfiques pour l’humanité, pourquoi nous intiment-elles désormais de craindre l’IA comme le jugement dernier ?

Transhumanisme du Suédois Nick Bostrom, altruisme efficace de l’Australien Peter Singer, long-termisme de l’Ecossais William MacAskill, mais aussi « technoféodalisme », « accélérationnisme efficace », « lumières noires »… La multiplication des notions citées dans cet essai très référencé a de quoi donner le tournis, comme le reconnaît l’auteur. Nul besoin, cependant, de forger de nouveaux concepts, comme le font certains essais technocritiques à la mode : tout est déjà là, en germe depuis longtemps, et nourrit ce qu’Emile Torres considère comme « le système de croyance séculaire le plus dangereux de la planète » : une obsession des pontes de la Silicon Valley pour l’avenir de l’humanité qui s’est infiltrée jusque dans les gouvernements et les universités. Avenir dont eux seuls, bien sûr, détiendraient la clé.

Sciences et société : « L’IA va tuer l’école ! »

Sciences: « L’IA va tuer l’école ! »

 Bientôt, je serai un jeune juriste prêt à entrer dans un monde du travail radicalement transformé. Alors que je termine mes études, une question m’obsède : que restera-t-il à faire dans un monde où l’IA surpassera bientôt les meilleurs experts ?
Par Alexandre Tsicopoulos, étudiant en droit dans La Tribune

Elon Musk lui-même a prédit qu’en 2028, l’IA dépassera l’intelligence cumulée des 8 milliards d’humains. Dario Amodei, le créateur d’Anthropic et principal concurrent d’OpenAI, résume cette révolution : « L’IA sera prochainement plus intelligente que les prix Nobel. Nous aurons une nation de génie concentrée dans un data center. »  Les modèles comme GPT-4 ou Claude 3.5 surpassent les étudiants dans la plupart des tests académiques. Avec un QI de 120, GPT-4 est déjà plus intelligent que 90 % des Français et cette IA gagne chaque mois 2 points de QI. Pourtant, l’école s’obstine à former aux métiers d’hier, rendant les connaissances obsolètes avant même la remise des diplômes. La supériorité de GPT-4 sur les médecins est troublante. Une étude de l’université de Stanford montre que l’IA obtient 90 % de bons diagnostics médicaux, tandis que les médecins plafonnent à 74 %. L’arrivée au pouvoir du couple Donald Trump-Elon Musk va encore accélérer cette cavalcade technologique.

Face à la certitude d’un dépassement imminent de l’intelligence humaine par l’IA, l’école telle que je l’ai connue doit se réinventer. Mes compétences, que je pensais uniques, peuvent désormais être automatisées. Institution ancestrale, l’école peine à réduire les inégalités intellectuelles et à adapter la nouvelle génération à un monde dominé par l’IA. En effet, elle n’a pas d’impact significatif sur les capacités intellectuelles des élèves, qui restent hélas majoritairement déterminées par des facteurs génétiques. Dans une économie de la connaissance, où l’intelligence est la clé de tous les pouvoirs, les différences cognitives expliquent l’essentiel des disparités de réussite entre les individus.

À l’heure des cerveaux en silicium, l’urgence est d’éviter la dystopie décrite par Yuval Harari : un monde scindé entre des dieux maîtrisant l’IA et des inutiles laissés pour compte. Les résultats de l’étude sur le revenu universel financée par Sam Altman, le patron d’OpenAI, renforcent cette inquiétude. Cette expérimentation menée dans l’espoir de trouver une solution face à l’automatisation de nombreux métiers a donné des résultats angoissants : le revenu universel augmente quatre choses : la consommation d’antidépresseurs, d’hypnotiques, d’anxiolytiques et d’alcool. Cet échec cinglant nous oblige à explorer de nouvelles pistes. La seule issue résidera dans l’augmentation des capacités cognitives humaines.

De Gaulle écrivait en 1934 : « Derrière chaque victoire d’Alexandre le Grand, il y a toujours Aristote », pour souligner l’influence majeure du philosophe grec sur son illustre élève. Demain, chaque élève sera accompagné par un « Aristote numérique » capable de personnaliser l’éducation selon ses aptitudes neurobiologiques. Mais cela ne suffira pas. L’école du futur devra augmenter les cerveaux biologiques grâce aux NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).
La neuroaugmentation est désormais incontournable pour rester compétitif dans un monde ultra complexe façonné par l’IA. Aux États-Unis, la start-up Heliospect Genomics propose des tests génétiques permettant aux parents de sélectionner leurs embryons les plus susceptibles de développer un haut quotient intellectuel. Une majorité des Chinois et 38 % des Américains souhaitent augmenter le QI de leurs bébés grâce à ces technologies. Avec les implants intracérébraux Neuralink, Elon Musk explore une autre voie pour augmenter l’intelligence humaine. Après la sortie de GPT-4, il s’était lamenté : « Que restera-t-il à faire pour nous, les humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! » Elon Musk affirme qu’il implantera Neuralink dans le cerveau de ses propres enfants puisque « la révolution de l’IA rend le cerveau humain obsolète. »
L’homme le plus riche du monde a promis que les implants Neuralink coûteront bientôt le prix d’une Apple Watch et seront implantés par ses robots neurochirurgiens en 10 minutes. En tant que futur professionnel, je fais partie de l’une des dernières générations de « bébés-loterie », où nos capacités intellectuelles dépendent du hasard génétique. Dans un monde où certains choisiront d’améliorer leur intelligence, vais-je pouvoir rester compétitif ? Que deviendra un juriste qui refuse ces technologies, alors que d’autres embrassent cette révolution ? Cependant, une question reste centrale : serons-nous prêts à accepter cette transformation sans sacrifier l’humanité qui définit notre essence ?

La révolution éducative ne se limitera pas à la transmission des savoirs. L’éducation deviendra une institution médico-technologique, mobilisant neurosciences et bio-ingénierie pour optimiser l’apprentissage et remodeler les capacités cognitives. L’enjeu ne sera plus seulement de rivaliser avec les machines, mais de s’unir avec elles. Dans cette symbiose Homme-IA construite par la Silicon Valley, seuls les esprits augmentés pourront véritablement prospérer et s’épanouir.

Pour moi, jeune étudiant en droit, cette transition vers un monde où la fabrication de l’intelligence sera mécanisée n’est pas seulement un défi technologique ou professionnel. C’est une remise en question existentielle. Dans un monde où l’intelligence sera produite industriellement, il faudra redéfinir ce que signifie être humain. Ce sera peut-être la principale mission de l’école du futur.

« Faibles compétences de l’intervieweur »: juge l’IA d’Elon Musk

« Faibles compétences de l’intervieweur »: juge  l’IA d’Elon Musk 

 Dans la nuit du 12 au 13 août, Elon Musk a invité Donald Trump pour un live sur le réseau social dont il est propriétaire, X (anciennement Twitter), multipliant les approximations.
Une « incapacité à contrôler la conversation », même, selon l’intelligence artificielle du milliardaire, Grok, qui a été lancée au printemps 2024 en Europe. Celle-ci propose en effet des résumés des publications d’utilisateurs en tendance sur la plateforme depuis mai dernier, et le moins que l’on puisse dire, c’est qu’elle n’y va pas de main morte au sujet de son créateur.
 Pour Grok, qui vient donc résumer l’ensemble les avis des utilisateurs au sujet de cet entretien, Elon Musk est « un mauvais intervieweur » qui « manque d’engagement » et qui a de « faibles compétences en communication ». Selon Grok, il y a « des commentaires sur ses capacités à parler en public, » notamment certains suggérant « qu’il est l’un des pires qu’ils aient entendus ».

 

 

Santé-L’IA au service du diagnostic

Santé-L’IA au service du diagnostic

 Une simple prise de sang, et l’ADN d’une tumeur est capté, permettant un diagnostic nouveau des cellules tumorales qui circulent dans le sang. Ainsi pourrons-nous bientôt remplacer la biopsie par une prise de sang, afin d’identifier les patients susceptibles de bénéficier de traitements ciblés contre différents cancers ? La « biopsie liquide » est l’un des nombreux symboles des perspectives que nous ouvre l’intelligence artificielle (IA). Par Reda Guiha, Président de Pfizer France (*) dans la  » Tribune »

Tout l’écosystème de la santé vit là une vraie révolution ! Une révolution des données, poussée par la complexité de l’IA ; une révolution de capacité, aussi, puisque les données existantes se complètent d’une infinité de données synthétiques que le secteur doit apprendre à structurer et à appréhender en restant uni. Et, enfin, une (r)évolution dans le rapport des Français à la science, puisque ces progrès doivent aller de pair avec une acceptabilité et une implication nouvelle de la société.

Un chiffre, récemment mis en avant par le sociologue des sciences Michel Dubois, témoigne selon moi d’une véritable ambivalence. À l’approche des années 1980, la science était vue par une majorité des Français comme un vecteur évident de progrès social. Aujourd’hui, 60 % des Français pensent que le progrès scientifique apporte à l’humanité « autant de bien que de mal » ou « plus de mal que de bien ». Malgré tout, ils sont 8 sur 10 à toujours penser qu’une affirmation validée scientifiquement a plus de valeur.

« Nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. »

Comment analyser ces chiffres-symboles des amours contrariées entre les Français et la science ? L’épidémie de COVID-19 a indéniablement modifié le rapport des Français à la science. Nous sommes passés en quelques mois seulement d’une science du résultat (stabilisée, validée par des pairs, sourcée dans les revues scientifiques) à une « course à la publication » qui a renversé la table, démultiplié les opinions scientifiques et bouleversé leur compréhension par le grand public. Les réseaux sociaux, l’infobésité, les fake news, ont augmenté ce questionnement de la vérité, et parfois désinformé, renforçant ainsi les critiques vis-à-vis des institutions et entreprises qui font et sont la science d’aujourd’hui.

Selon moi, nous manquons aujourd’hui d’un récit scientifique, et nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. Il n’y a pas de réflexion scientifique sans doute au préalable. On fait de la recherche parce qu’on sait ce qu’on ne sait pas ; on se pose des questions. La culture du doute est un moteur de progrès scientifique et le meilleur moyen de progresser dans la compréhension des maladies, dans la réponse qu’on peut leur adresser. Et l’accélération de la recherche que l’on vit cette dernière décennie augmente le champ des questions.

Dans cette période de bouleversement technologique, les scientifiques, la rigueur et la reproductibilité qu’impliquent leurs méthodes, sont les derniers remparts et les garde-fous de l’éthique scientifique. Se reposer sur eux permet de comprendre, de démystifier la science, ses innovations médicales, pour rassurer et pour embarquer la population.

La pédagogie est la clef d’une meilleure compréhension du potentiel que représentent les grandes innovations technologiques et scientifiques telles que l’intelligence artificielle, la biopsie liquide ou même les thérapies géniques. Innover sans risque est un souhait vain !

Sans elle, comprendre l’intérêt universel de la science sur la santé du patient, à l’heure des réseaux sociaux et du rush scientifique, paraît impossible. Sans elle, reconnaître que l’innovation de rupture est un bouleversement cognitif pour les citoyens, paraît impossible ! La pédagogie permet d’emmener le public à se projeter dans l’innovation avec assurance et d’offrir le « pourquoi » qui, selon Nietzsche, permet de « vivre avec n’importe quel comment. »

Seule une coordination des acteurs de tout type – pouvoirs publics, associations de patients, scientifiques, professionnels de santé, industriels -, à travers des campagnes de sensibilisation communes par exemple, rendra cette politique de la culture scientifique envisageable.

L’enjeu n’est pas d’être consensuel, mais de rendre crédible la parole des personnes compétentes.

____

(*) Reda Guiha est le Country President de Pfizer France depuis le 1 er  septembre 2022.
Pharmacien de formation, Reda Guiha a travaillé dans différents pays dont l’Egypte,
le Royaume-Uni, l’Italie, les Etats-Unis et la France. Il a rejoint Pfizer en 2003, et
occupé de nombreuses fonctions en tant que directeur de la Division Oncologie puis
Specialty Care, basée en France. Il a également été président de la division Vaccins
pour les marchés internationaux développés (IDM). Avant de prendre la présidence
de Pfizer France, il présidait la franchise Maladies Rares pour la région IDM, avec
la responsabilité de 57 pays.
Reda Guiha est membre des Conseils d’Administration de l’AGIPHARM et du LEEM.
Il est également membre actif de la Conférence des dirigeants français d’entreprises
étrangères et du Cercle des Présidents.

Risque de l’IA : Une question de méthode et de démocratisation

Risque de l’IA : Une question de méthode et de démocratisation 

.L’intelligence artificielle a imposé le lexique de la peur. On parle d’invasion de robots venus remplacer les travailleuses et les travailleurs, de rupture technologique et de saut dans l’inconnu. En réalité, la création de la valeur reste absolument identique dans sa méthode depuis Socrate : il faut résoudre des problèmes ! Par Hadj Khelil, fondateur d’Hyko.ai* ( dans  » La Tribune)

Pour y parvenir, il faut d’abord connaître ses problèmes. Savoir les identifier nécessite de construire un pont, un lien entre l’énoncé et le vrai problème, le besoin non pourvu. Cette qualité de problématisation rend possible l’accès à une boite à outils dont la taille varie en fonction des âges. Si l’IA est une révolution de la caisse à outils, elle ne le sera jamais pour ce qui est du talent de problématisation.

Edgar Morin nous a montré la voie, la seconde vague de l’esprit français de Descartes : il nous faut avoir plus de méthode. Comme disait Einstein, il faut rester plus de temps avec les problèmes. Il avait prédit qu’un jour les machines répondraient à toutes les questions, mais nous prévenait déjà qu’elles ne pourraient jamais poser les meilleures questions.

Cette méthode de problématisation, cette gymnastique intellectuelle, c’est un monopole humain, un bastion qu’il faut encourager, former, valoriser. C’est sur celle-ci que nous devons nous appuyer pour dompter l’IA et la mettre au service du plus grand nombre à travers la résolution des grands problèmes de l’humanité. L’ordinateur quantique tant attendu, combiné à la magie de l’IA, pourraient être déterminants dans la réalisation des objectifs de développement durable, plutôt que servir la grande course à la profitabilité et compromettre les souverainetés des humains qui n’auraient pas livré les bons combats.

Le paradoxe veut que l’IA fasse son entrée fracassante dans un monde où les citoyens vont de plus en plus mal. C’est l’aboutissement de la prise de pouvoir des machines, accélérée par la compétition devenue mondialisée et omniprésente, après une phase, aujourd’hui révolue, de croissance effrénée où chacun a vu son temps libre, sa richesse, sa santé et ses libertés croitre.

Le prix à payer pour cette croissance inédite de richesses fut la spécialisation des tâches, censées répondre à des problèmes que l’on a fini par oublier avec la vague d’industrialisation, de normalisation, de standardisation, au nom de l’obsession à la productivité. Ne demeure que la hiérarchie sociale qui en découle, les dividendes sans cesse plus importants (un domaine où notre pays excelle encore) et finalement la conversion des travailleurs en robots. Ils ne comprennent plus à quel problème correspond les tâches qu’ils répètent. Savez-vous quel problème vous réglez dans la vie, et dans le monde ? Même des grands patrons et des dirigeants politiques ne le savent plus vraiment.

Ce n’est pas qu’ils soient stupides mais ils ne sont juste plus habitués à penser en termes de problèmes à résoudre et ont poussé une armée de cadres condamnés aux bullshit jobs à lubrifier les humains robotisés en leur parlant de devoir, puis de sens et enfin de mission. Mais après avoir délocalisé les emplois, le rêve du grand capital est de remplacer l’Homme par une machine sans état d’âme, dans une destruction créatrice qui laisserait des milliards d’entre nous sur le carreau (ces fameux cadres en premier lieu).

Je pense que la solution réside dans le problème, comme toujours. Si l’IA était démocratisée au maximum, elle pourrait répondre à la quête de sens et d’impact des citoyens du monde. S’ils peuvent (encore) répondre aux défis de l’époque et améliorer le monde pour les générations futures, car l’IA va pouvoir accélérer la transition environnementale, la démocratie participative et tout le reste, sans exception.

Puisque personne ne peut arrêter le progrès, il est de notre devoir de protéger les citoyens des tsunamis technologiques qui se profilent en leur offrant des outils pour en tirer profit. Cet outil surpuissant présente de multiples dangers, oui, mais il peut être un outil de libération, d’émancipation et de créativité qui redistribuera les cartes d’un monde devenu trop injuste pour tenir debout et pour vivre ensemble.

C’est pour cela que nous avons développé un outil de prototypage d’applications d’IA sur-mesure, en quelques minutes et sans connaissance informatique. La majeure partie de la valeur, du temps et de l’impact perdus se jouent dans cette phase de prototypage où l’IA permet des économies et un partage des connaissances, des possibles qui progressent à une vitesse délirante.

Cette révolution peut cesser de donner le pouvoir aux tenants de la technologie et le rendre à ceux qui détiennent légitimement le savoir et le savoir-faire, ceux qui connaissent les vrais problèmes et veulent les résoudre pour le bien de tous. Pour cela, il ne tient qu’à nous de la démocratiser en y prenant part, en en profitant pour réactiver ce qu’il y a de plus précieux, commun et humain en nous et dont l’épuisement menace les institutions et les organisations partout dans le monde : notre capacité à raisonner.

La délicieuse ironie de la vie a opéré un formidable retournement, dont elle a le secret, propulsant ainsi les fortunés d’autrefois dans l’enfer des autres. À nous maintenant de travailler au prochain retournement en faisant en sorte qu’il aboutisse à la situation la plus juste possible. Nous croyons fermement que l’IA, à la condition que nous réussissions à embarquer le plus d’humains possible dans l’arche, est une véritable opportunité d’imaginer et de concevoir un monde plus juste articulé sur les savoirs, les compétences, les intuitions de citoyens qui auront dompté l’IA.

_______

(*) Hadj Khelil a fondé le data lab BIG mama en 2014. il a lancé en 2024 Hyko.ai.

l’IA : Pour détecter des cancers

l’IA : Pour détecter les cancers

Des chercheurs ont conçu un algorithme d’apprentissage capable de trouver l’origine de cellules cancéreuses qui se sont propagées dans le corps alors qu’on ne connaissait pas la tumeur de départ. De quoi mieux cibler les traitements pour les patients.

Dans le traitement anticancéreux, le choix des solutions thérapeutiques dépend en grande partie de l’origine de la première tumeur, c’est-à-dire de l’organe initialement atteint. Or, pour certains cancers détectés à un stade avancé, ce point de départ est parfois impossible à identifier étant donné que leurs cellules tumorales se sont déjà disséminées dans le corps et ont produit des métastases. Ces cancers dont l’origine reste un mystère, appelés cancers de primitif inconnu (CPI) par les spécialistes, touchent chaque année 7000 patients en France. Pour ces derniers, les options de traitement sont rarement optimales.

Tout l’enjeu actuel consiste à développer des outils capables d’identifier le cancer primitif afin que ces patients puissent bénéficier d’un traitement plus spécifique de leur maladie.

Effets de L’IA générative : positifs sur la croissance ?

Effets de L’IA générative :  positifs sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative : Un effet positif sur la croissance ?

L’IA générative : Un effet positif sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle émise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.

Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

L’IA générative et la désinformation

L’IA générative et la  désinformation  

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

 

par

Thierry Poibeau, École normale supérieure (ENS) – PSL dans The Conversation 

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

 

Société- L’IA générative : danger civilisationnel

Société- L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol