Panne informatique mondiale : Le risque de la dépendance aux géants de l’informatique
Le professeur Jean-Gabriel Ganascia souligne, dans une tribune au « Monde », le défi que la dépendance aux géants de l’informatique lance à la souveraineté des Etats.
La panne informatique survenue le 19 juillet atteste de notre dépendance au numérique : plus de 22 000 vols retardés ou annulés, hôpitaux désorganisés, perturbations dans la diffusion des journaux télévisés… les dérèglements occasionnés ont été innombrables.
Pourtant les causes ont été connues très tôt, et vite corrigées, en moins d’une heure et demie. II ne s’agit pas d’une attaque informatique conduite par des cybercriminels, mais d’une incompatibilité entre deux logiciels consécutive à une mise à jour hâtive de l’un d’entre eux. Cela a pourtant suffi à désorganiser l’ensemble de la planète. A n’en pas douter, les leçons que l’on en tirera seront multiples et l’événement restera dans les annales.
Dès à présent, trois points cruciaux méritent qu’on y porte attention.
Le premier tient à la fragilité des infrastructures numériques. Une erreur de programmation minime suffit à provoquer des incidents en cascade aux effets tout à la fois catastrophiques et imprévisibles. Aujourd’hui, il n’est plus possible de prouver irréfutablement la solidité de systèmes informatiques, compte tenu de leur complexité. On ne saurait donc assurer une protection absolue !
On peut néanmoins réduire la probabilité de survenues de pannes. A cette fin, on procède à des tests massifs pour détecter des anomalies. On fait même parfois intervenir des « équipes rouges » chargées d’envisager tous les possibles pour déceler des failles potentielles. Mais, là encore, c’est coûteux et cela prend du temps. On doit donc faire des compromis du fait du nombre vertigineux de points de vulnérabilité.
Anticiper l’improbable
A cette fragilité s’ajoute le risque d’attaques adverses destinées à déstabiliser des entreprises, des institutions publiques, voire des ministères ou même des pays entiers, comme ce fut le cas pour les cyberattaques de 2007 en Estonie. A cet égard, il n’est pas anodin de constater que l’origine de l’incident massif du 19 juillet tint à la mise à jour d’un dispositif de protection, le système CrowdStrike, destiné à aider les responsables de la sécurité informatique à repérer des comportements inhabituels potentiellement responsables de malveillances.
Panne informatique mondiale : Les dangers de l’hyper concentration
Cette panne informatique mondiale montre que »les positions dominantes rajoutent toujours une couche de danger », assure le président de l’ONG Internet Society France. « Elle crée une dépendance. » Il pointe « une tendance un peu masochiste en France » en choisissant « un logiciel américain » en se disant que « l’on va être un peu plus protégés, cela pose vraiment la question de notre souveraineté numérique. »« Cela révèle une âme un peu moutonnière de beaucoup d’entreprises », a expliqué vendredi 19 juillet sur franceinfo Nicolas Chagny, président de l’ONG Internet Society France, alors qu’une panne informatique géante a touché de nombreux secteurs à travers le monde, du Japon aux Etats-Unis.
Cette panne, qui a débuté jeudi soir, a été provoquée par une mise à jour défectueuse sur les systèmes Windows (Microsoft) d’une solution informatique du groupe américain de cybersécurité CrowdStrike. Son PDG assure sur X qu’« il ne s’agissait pas d’un incident de sécurité ou de cyberattaque ». George Kurtz réitère ses excuses qu’il a présentées à la télé américaine, ajoutant que les clients de son entreprise« restent entièrement protégés ».
Pour Nicolas Chagny, CrowdStrike est « une entreprise qui a fait beaucoup de bruit il y a quelques années, en étant sur des sujets de cybersécurité ». Cela a conduit « des milliers d’entreprises » à choisir « ce même logiciel et à faire confiance à cette société ». « On a confié une mise à jour à cette société sans la valider avant. On a une entreprise tierce qui peut faire une mise à jour de son propre chef, qui est déployée dans le monde entier sur des postes utilisateurs et qui rendent ces postes totalement inutilisables. » Cette situation révèle »que les entreprises qui ont fait le choix de ce logiciel ont fait le choix de ne pas mettre de garde-fous et d’autoriser sa mise à jour ».
Nicolas Chagny rappelle la crise du Covid a mis en lumière »des problématiques de souveraineté sur l’approvisionnement, notamment dans la santé ». Il pointe également « la crise ukrainienne » qui a « révélé des problèmes de souveraineté sur l’énergie, l’alimentation ». « Dans le numérique, on doit choisir des logiciels européens, des logiciels français pour nous sécuriser. » L’ONG Internet Society France appelle à « faire confiance à des entreprises françaises. Il y en a plein qui existent et qui parfois ne sont pas choisies ». « Sur les données de santé, au lieu d’aller chercher un hébergeur qui aurait pu tout à fait faire l’affaire en France ou en Europe, on est allé chercher un acteur américain pour héberger ces données de santé », regrette Nicolas Chagny. Il faut donc »aller chercher ces pépites parce qu’elles existent ».
La panne géante qui s’est produite vendredi est liée à une incompatibilité entre une mise à jour effectuée par l’entreprise leader dans le domaine de la cybersécurité et les appareils Windows. François Deruty, en charge des cybermenaces au sein de la société Sekoia.io, apporte son éclairage sur Franceinfo.
De Brisbane à Berlin, en passant par Paris, l’économie mondiale tourne au ralenti, vendredi 19 juillet. Des avions cloués sur le tarmac en Europe, le numéro d’appel d’urgence américain hors service, des services hospitaliers affectés aux Pays-Bas… Plusieurs pays sont touchés par des incidents en cascade. La raison : une panne informatique géante liée à une incompatibilité entre le logiciel de CrowdStrike, une entreprise spécialisée dans la cybersécurité, et les appareils Windows. « Le problème a été identifié, isolé et un correctif a été déployé », a affirmé à la mi-journée George Kurtz, patron de l’entreprise mise en cause, sur le réseau social X. Il a précisé que les systèmes Mac et Linux ne sont pas touchés.
Franceinfo : Quelle est l’origine de cette panne informatique ?
François Deruty : Il semblerait que la société américaine CrowdStrike ait réalisé une mise à jour de l’un de ses équipements qu’on appelle un EDR (Endpoint detection and response). Pour schématiser, un EDR correspond à un antivirus de nouvelle génération. Visiblement, cette mise à jour a un problème de format et fait « planter » les terminaux Windows sur lesquels les EDR sont installés. C’est a priori pour cette raison qu’on voit des écrans bleus [synonymes d'une erreur système] partout à travers la planète.
Microsoft a également signalé une panne de service, est-ce que ces deux bugs sont liés ?
La situation reste confuse, mais cette panne mondiale est liée à la mise à jour défectueuse de CrowdStrike et non au système d’exploitation [Windows] lui-même, comme on a pu l’entendre à plusieurs reprises. Microsoft a eu une panne ce matin qui a été réglée au bout d’une heure. Elle n’a rien à voir et n’a pas eu le même impact. Autrement dit, c’est avant tout un problème de CrowdStrike sur du [matériel fonctionnant avec un logiciel] Microsoft, pas l’inverse.
De Sydney à Paris en passant par Tokyo, de nombreux pays et villes de la planète sont directement touchés par cette panne informatique. Comment expliquer l’échelle planétaire de cette panne ?
CrowdStrike est une entreprise américaine, leader mondial dans le domaine de la cybersécurité et de la cyberdétection. Il s’agit d’une entreprise dont les produits sont utilisés par de nombreux clients, et ce, dans tous types de domaines et secteurs économiques. Depuis ce [vendredi] matin, on a vu de nombreux aéroports à l’arrêt, mais en réalité, il n’y a rien de spécifique à l’aviation. Cette panne peut toucher n’importe quelle entreprise cliente de CrowdStrike et n’importe quel secteur économique : le ferroviaire, les activités bancaires, les télécommunications…
Comment expliquer que CrowdStrike ait déployé une mise à jour contenant un bug aussi important ?
Des mises à jour qui ne se passent pas très bien, c’est assez commun en informatique. Mais de cette ampleur-là, c’est rare. Normalement, on réalise des tests à plusieurs reprises avant de déployer la mise à jour. Il y a des procédures à suivre. La question qui se pose désormais, c’est : comment une entreprise de cette taille a-t-elle procédé et quel a été le processus de validation ? Nous aurons sans doute des réponses et des éclaircissements une fois que CrowdStrike sera parvenu à surmonter cette crise.
Est-il possible d’estimer la durée de cette perturbation et d’envisager un retour à la normale ?
Les équipes techniques de CrowdStrike sont sur le pont, elles ont communiqué très vite, en expliquant les différents moyens techniques disponibles pour réparer les machines ou revenir à des versions antérieures. C’est plus ou moins facile en fonction de l’architecture des différents systèmes. Mais le temps que les clients appliquent cette solution et que tout revienne à la normale, ça va prendre beaucoup de temps.
Que faire si son ordinateur est touché par cette panne ?
Si vous êtes concerné, il faut contacter le service informatique de votre entreprise – qui a normalement pris les devants – et se renseigner avec les différents communiqués officiels de CrowdStrike qui expliquent comment remettre son système dans un état fonctionnel. Il est vivement recommandé d’appliquer les correctifs, les mises à jour et les recommandations le plus tôt possible
Pour des raisons économiques mais aussi de sécurité Huawei et ZTE sont chassés d’Allemagne. Lors d’une conférence de presse ce jeudi, Nancy Faeser, la ministre allemande de l’Intérieur, a annoncé que les équipementiers chinois Huawei et ZTE vont devoir plier bagage. Le recours aux services de ces deux géants des télécoms ne sera plus toléré dans les réseaux 5G. « Sur les coeurs de réseaux 5G [où transitent toutes les communications, Ndlr], les composants Huawei et ZTE ne pourront plus être utilisés d’ici fin 2026 au plus tard, a détaillé la ministre. Pour les réseaux d’accès et de transport 5G, les systèmes de gestions critiques (des deux fabricants, Ndlr) devront être remplacés au plus tard fin 2029. »
La ministre souligne que cette décision « vaudra pour l’ensemble de l’Allemagne ». Elle concernera donc tous les opérateurs du pays. A commencer par Deutsche Telekom, le numéro un européen des télécoms, qui recourt largement aux services de Huawei. Il en va de même pour l’antenne allemande de Vodafone, comme de celle de l’espagnol Telefonica. Tous ces acteurs n’ont cessé, ces dernières années, de se fournir auprès de Huawei et de ZTE pour moderniser leurs antennes 4G et les passer en 5G. D’après une enquête publiée l’an dernier par Strand Consult, un cabinet danois spécialisé dans les télécoms, 59% d’entre elles proviendraient de fournisseurs chinois. « Huawei jouit d’une plus grande part de marché à Berlin qu’à Pékin, où il se partage le marché avec ZTE et d’autres fournisseurs », précisait même l’étude.
En 2023, plus de la moitié du trafic internet français provenait des cinq géant du numérique : Netflix, Akamai, Facebook, Google et Amazon.
C’est le constat que dresse l’Autorité de régulation des télécoms (Arcep) dans un rapport publié ce jeudi. Ils ont ainsi représenté 53% d’un trafic, poussé par la consommation de films et séries en streaming, la télévision en rattrapage et les réseaux sociaux. Et parmi ces Gafam, Netflix – qui comptait près de 12 millions de français abonnés l’an passé selon Digital TV Research – est à l’origine de 15% de ce trafic à lui seul. Une part néanmoins en recul par rapport à fin 2022, année durant laquelle elle avoisinait les 20% .
Logiciels- l’ antivirus russe Kaspersky interdit aux USA
«Kaspersky ne sera plus en mesure, entre autres activités, de vendre ses logiciels aux États-Unis ou de fournir des mises à jour aux logiciels déjà utilisés», a indiqué le département américain au Commerce dans un communiqué.
Les entreprises et particuliers qui continuent à utiliser l’antivirus Kaspersky ne s’exposent néanmoins pas à des sanctions américaines, mais sont averties des risques liés à la cybersécurité, précise le département du Commerce. «La Russie a montré à maintes reprises qu’elle avait la capacité et l’intention d’exploiter des entreprises russes, telles que Kaspersky Lab, pour collecter et exploiter des informations américaines sensibles», a commenté la secrétaire américaine au Commerce, Gina Raimondo, citée dans le communiqué.
Kaspersky a des bureaux dans 31 pays, et des clients dans plus de 200 pays et territoires.
« Un vertige total » : voilà comment la technopolitiste Asma Mhalla résume l’interprétation cyber-technologique de la dissolution, mais aussi ce que promet la stratégie du Rassemblement National en matière de nouvelles technologies. ( dans La Tribune)
Que sait-on du rapport que le RN entretient aux nouvelles technologies ?
D’un point de vue programmatique, la question est passionnante car elle pointe la fragilité de pensée politique du RN. Les lignes doctrinales du RN sont construites autour des thématiques de la souveraineté (pour ne pas dire de souverainisme), de la priorité nationale, de la fermeture de frontières, d’une méfiance d’intensité variable – car politiquement opportuniste – à l’égard de l’Union Européenne. Naturellement, nous aurions pu croire qu’ils auraient portés un discours anti-GAFAM et anti-UE. Une sorte de « France first ». Or dans leur programme on retrouve des propositions consensuelles et incantatoires sur l’orchestration de grands projets européens autour du cloud ou de l’IA, et surtout un silence assourdissant concernant les BigTech américains ou chinois. Pas grand-chose sur les enjeux des réseaux sociaux ou des écrans par ailleurs. Une inflexion même ultra-libérale hostile à la réglementation semble se dessiner si l’on en croit un excellent papier de la revue Telescope. Au contraire même, le parti semble percevoir la taxe GAFAM comme une aubaine pour financer les services de la poste. La question de la souveraineté technologique est donc portée de façon molle, pour ne pas dire sans grande conviction forte, semblant reprendre le minimum syndical en piochant dans quelques propositions provenant des kilomètres de rapports et de propositions récemment produits par l’Assemblée nationale ou le Sénat. En revanche, au sein de leur parti, l’usage de l’IA et de CHATGPT (IA générative de OpenAI) est fortement encouragée, des formations d’élus sont organisées pour les aider à élaborer leurs campagnes, etc… D’autant que nombre d’élus RN, à commencer par Jordan Bardella, sont de la génération « native digitaux ». Son succès auprès des jeunes sur TikTok est incontestable. Chez eux, l’emploi des réseaux sociaux mais aussi la compréhension des outils technologiques sont inscrits naturellement dans leurs usages.
Simpliste, binaire, directe, manipulatoire, décomplexée : la rhétorique de leurs messages programmatiques se prête également à l’usage de ces technologies.
C’est en effet une autoroute qu’il utilisent sans peine malgré les incohérences que je viens de pointer. Notre manque d’autonomie technologique est une autoroute rhétorique aux discours souverainistes, puisque le sujet des nouvelles technologies et de l’IA met en exergue la dépendance de la France et de l’Europe aux géants américains en premier lieu. L’absence, en France, de véritable stratégie scientifique, industrielle, écosystémique et donc le déficit de souveraineté font la part belle aux arguments souverainistes des formations d’extrême droite ; mais comme chez n’importe quel parti, la question technologique est encore secondaire par rapport aux enjeux de pouvoir d’achat et d’immigration. C’est d’ailleurs Marion Maréchal et Reconquête ! qui était alors encore son parti, qui va résoudre l’« équation technopolitique » : l’une de leurs propositions, délirante, est d’augmenter les capacités en IA et robotique pour lutter contre l’immigration. Des robots plutôt que des immigrés : en gros, un grand remplacement mais version technologique ! L’usage de la technologie comme autoroute vers une forme de techno-fascisme… Un vertige total. Sur les questions techno-sécuritaires, il y aurait également matière à craindre des distorsions très graves de l’esprit même de notre Etat de droit, la rhétorique sécuritaire, agrémentée de relents ségrégationniste, étant au cœur de l’ADN. Enfin, en matière industrielle, la principale réponse au déficit français étant l’Europe, et l’Europe étant vouée à être fragilisée si le RN accède au pouvoir, ce n’est pas demain que nous relèverons le niveau de souveraineté nationale ! La réalité des rapports de force dans le monde est l’extrême interdépendance sont, ce n’est pas le fantasme de l’autarcie…
Mais quelle est la logique de souverainisme national quand les nouvelles technologies convoquent des techniques, des acteurs et une articulation espace – temps qui n’ont pas de frontière ?
L’extrême droite n’a absolument pas intégré cette réalité à son discours. Preuve soit qu’elle la méconnait soit qu’elle la manipule. L’extraterritorialité physique est le substrat même des nouvelles technologies, et cela disqualifie donc la promesse de gérer, de contrôler, de maîtriser la recherche et l’industrie des nouvelles technologies à l’intérieur des frontières françaises. Les enjeux de cyber-défense, de cyber-influence, de cyber-espace se traitent-ils au poste frontière ? Le RN pense-t-il que c’est en fermant à double tour les côtes françaises qu’il trouvera la parade aux ingérences étrangères et aux guerres hybrides exercées dans le cyberespace, cinquième domaine de la guerre ? Les nouvelles technologies questionnent en profondeur l’idée d’Etat-nation ; questionner ne signifie pas nécessairement anéantir mais plutôt interroger et remettre à jour les articulations et le fonctionnement de ce que l’on nomme souveraineté, désormais plus liquide, distribuée entre acteurs publics et privés, parfois extracommunautaires comme les géants technologiques. Comment alors repenser le rôle et la place de l’Etat ? C’est une question passionnante mais qui suppose une certaine plasticité de pensée là ou les dogmatismes sont par nature rigides.
Nvidia , première capitalisation mondiale devant Apple et Microsoft
Dépassant Apple et Microsoft, ce record de Nvidia, fabricant de puces numériques, est un symbole de la fièvre de l’intelligence artificielle (IA) générative qui agite les marchés. Depuis le lancement de ChatGPT, fin novembre 2022, le cours du titre Nvidia a été multiplié par huit.
Le groupe doit sa popularité à ses cartes graphiques (GPU), des puces capables de gérer une quantité considérable de calculs, nécessaires au développement des programmes d’IA générative. L’IA générative permet à un utilisateur d’obtenir du texte, une photo, une vidéo, des lignes de code ou un son grâce à une demande formulée en langage courant. Pour rendre possible cette fonctionnalité, les développeurs accumulent des milliards d’exemples de conversations et d’écrits pour prédire la meilleure réponse à une demande.
Même si ses grands concurrents comme AMD ou Intel, ainsi que les géants de la «tech» comme Apple ou Microsoft, sont lancés à sa poursuite, Nvidia conserve une confortable avance sur le marché des semi-conducteurs utilisés pour l’IA générative. «Les puces GPU de Nvidia sont le nouvel or ou le nouveau pétrole du secteur technologique», estiment les analystes de Wedbush Securities. Pour eux, Nvidia, Apple et Microsoft sont désormais engagés dans «la course aux 4000 milliards de dollars de valorisation boursière». Depuis un quart de siècle, General Electric, ExxonMobil, Microsoft et Apple se sont succédé sur la première marche des capitalisations mondiales, avant le sacre de Nvidia.
La chercheuse en géopolitique Ophélie Coelho, chercheuse en géopolitique propose dans une tribune au « Monde », une lecture critique des annonces triomphales d’investissements d’infrastructures numériques, qui renforcent le contrôle des Gafam sur les territoires et les données.
Sous le couvert de la simplification administrative, un projet de loi, actuellement examiné au Sénat, vise à accélérer l’implantation de mégacentres de données en France en contournant le pouvoir de décision des élus locaux. Le 13 mai, lors du sommet Choose France 2024, les Big Tech Amazon, Microsoft, IBM, la société de placement immobilieraméricaine Equinix et le japonais Telehouse ont annoncé un plan d’investissement total de près de 7 milliards d’euros pour l’expansion de leurs infrastructures en France. Ces annonces marquent une nouvelle étape dans un processus entamé il y a plusieurs années. Car, en Europe et partout dans le monde, la territorialisation des infrastructures du numérique avance à pas de géant.Ces implantations de centres de données sont loin d’être anodines. Elles font d’abord partie d’une stratégie d’expansion globale de la part des Big Tech, qui va de pair avec la construction des mégacâbles sous-marins les plus puissants au monde. Il suffit de s’intéresser, sur les littoraux européens, à l’atterrage des câbles Dunant (Google), Amitié (Meta), Equiano (Google), 2Africa (Meta, China Mobile, MTN) ou encore Peace (consortium chinois), qui ont tous été construits ces dernières années.Et si ces câbles géants sont les « routes » qui transportent les données et les logiciels, les centres de données sont les « comptoirs » numériques de cette expansion territoriale. Ces infrastructures sont des relais de dépendance technologique majeure aux Big Tech, dont la gestion des données et des logiciels reste hors de contrôle du décideur, du régulateur et de l’utilisateur européens. En fin de compte, cette consolidation des dépendances pèse lourd sur nos capacités de négociation avec l’« ami américain ».
Cette territorialisation infrastructurelle des Big Tech poursuit plusieurs objectifs. Il s’agit d’abord d’une consolidation du marché numérique européen sur le cloud, avec l’idée que la localisation des données sur le territoire est une garantie qu’elles ne seront pas transmises aux Big Tech. Mais l’implantation des centres de données en Europe prépare aussi le terrain à la conquête d’un nouveau marché : la « transformation numérique » du continent africain. Dans cette nouvelle bataille, qui oppose entreprises américaines et chinoises, l’Europe joue le rôle de rampe de lancement et de partenaire conciliant en accueillant sur son territoire les comptoirs numériques des Big Tech…..
Le développement de robots à forme humaine s’accélère. Dopées à l’intelligence artificielle, ces machines humanoïdes pourraient rapidement faire partie de notre quotidien. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio dans la Tribune.
Habitués, depuis déjà plusieurs décennies, à voir des robots industriels automatiser d’innombrables tâches pénibles, répétitives ou dangereuses pour l’humain (peinture, soudage, assemblage…), une nouvelle révolution de la robotique est à l’œuvre. Moins « esclaves », mais plus « compagnons », les prochains robots humanoïdes nous ressembleront physiquement (avec deux bras et deux jambes), voire mentalement. Dopées à l’intelligence artificielle, ces machines pourraient bien envahir nos vies.
A défaut de prendre cette prédiction pour argent comptant, le moins que l’on puisse dire c’est que de grands groupes technologiques consacrent des sommes importantes au développement de ces robots humanoïdes : Tesla, avec ses robots Optimus, Google, Open AI ou encore Figure, société qui a levé 675 millions de dollars auprès de Microsoft, Open AI, Nvidia et Jeff Bezos. Bref, une myriade de grandes et petites sociétés investissent pour faire converger IA et robotique. Jamais à court de propos sensationnalistes, le 21 janvier dernier, Elon Musk s’est même enthousiasmé en pronostiquant que d’ici à 2040, 1 milliard de robots humanoïdes devraient être à nos côtés. Dit autrement, arrive le temps où IA et robotique se connecteront.
…..L’IA générative donnera à ces robots humanoïdes la capacité de comprendre, d’apprendre et de prendre des décisions. Côté pile, de telles technologies pourraient être le « remède » aux pénuries de compétences qui affectent tel ou tel secteur du fait notamment du vieillissement démographique ou de la réticence à travailler dans des environnements difficiles. Côté face, ces robots auront, à coup sûr, vocation à occuper de nombreux emplois jusqu’alors effectués par des humains.
Pour l’heure, si ces futurs auxiliaires sont technologiquement prêts, il reste encore pas mal de chemin à faire pour parfaire leur « presque humanité », à commencer par leur aspect physique. Il n’y a qu’à voir le robot humanoïde Optimus de Tesla qui, avec son 1m72 et ses 57 kg, son buste et sa tête noire sans visage et sans aucune expression, agit pour l’instant comme un véritable repoussoir. Sans doute que ce sujet de forme devrait être assez vite résolu, ne serait-ce que pour une raison commerciale : donner envie d’adopter ces robots aux caractéristiques presque humaines.
Une fois ceci fait, il ne restera plus qu’à doter ces machines d’une forme d’empathie artificielle qui fera que nous oublierons progressivement que l’on interagit avec une machine. L’heure sera alors venue de sérieusement se poser la question éthique sur la complémentarité que nous voudrons nouer entre l’Homme et la machine. Dit autrement, et à l’instar des débats récurrents sur l’IA, serons-nous un jour tentés d’abandonner notre idéal d’autonomie en déléguant tout ou partie de nos choix à des machines capables de choisir et de décider à notre place ?
Une critique sans concession de la part de la Cour des Comptes européenne quant à l’insuffisance des investissements dans l’intelligence artificielle pas du tout à la hauteur des enjeux mondiaux.
Dans un rapport dévoilé mercredi, la Cour tire à boulets rouges sur les investissements de l’UE dans l’intelligence artificielle, jugeant qu’ils ne sont pas à la hauteur de ses ambitions mondiales. Pour preuve sans doute l’appropriation de la problématique et des projets par les grands du numérique la plupart américain ou chinois.
Un manque flagrant d’investissements, pas vraiment de suivi de leur efficacité et une mauvaise coordination de la Commission européenne avec les Etats membres. C’est le jugement sévère de la Cour des comptes européenne sur les ambitions de Bruxelles dans l’intelligence artificielle (IA), alors que l’UE vient d’adopter le premier cadre réglementaire au monde contrôlant cette technologie controversée.
Mais ce sont surtout aux investissements de ces cinq dernières années que la Cour s’est intéressée et contre lesquels elle tire à boulets rouges, jugeant leurs objectifs « trop vagues et obsolètes » et pointant leur « manque d’ambition ». D’après la Cour, ils sont bien en deçà de ce qui serait nécessaire pour ériger Bruxelles en chef de file dans la compétition mondiale pour « une IA de pointe, éthique et sûre ».
« Intelligence artificielle » est un mauvais anglicisme. Selon Laurent Daudet, cofondateur de LightOn, « les algorithmes que nous utilisons n’ont rien d’intelligent ». Pour ce professeur d’informatique et startuppeur, les progrès récents de l’IA sont néanmoins « fascinants ». ( dans les Echos ») . Laurent Daudet est physicien, docteur en sciences du signal. Enseignant chercheur en informatique depuis plus de vingt ans, il a cofondé la start-up LightOn qui développe des modèles d’intelligence artificielle générative. Il vient de cosigner, avec le dessinateur indien Appupen, le roman graphique « Dream Machine » (1).
Quel regard portez-vous sur l’engouement actuel autour de l’intelligence artificielle ?
Tout a démarré exactement le 30 novembre 2022, lorsqu’ OpenAI a ouvert ChatGPT au grand public. Bien sûr, pour nous, ce n’était pas tellement une surprise. Chez LightOn, on travaillait, depuis 2020 déjà, sur l’IA générative.
Les plus gros modèles ont maintenant plus de 100 milliards de paramètres. Tout l’art consiste à régler ces paramètres. Cela demande des milliers de serveurs informatiques pour les entraîner sur des bases de milliers de milliards de mots qui tournent en continu pendant plusieurs semaines. Si l’IA a toujours analysé de grandes quantités de données, désormais tout le monde a accès à une IA capable de créer du contenu d’une qualité quasi semblable à ce que peuvent produire des humains.
Quand ChatGPT est sorti, nous n’avons pas été surpris par la technique mais par l’interface et la rapidité d’adoption par le grand public. Tout d’un coup, l’IA est devenue un sujet de société.
« Intelligence artificielle » est-il un terme approprié, selon vous ?
C’est un mauvais anglicisme. « Intelligence », en anglais, c’est la collecte de l’information, au sens de renseignements ou de connaissances, et pas du tout l’intelligence au sens où on l’entend en français. Les algorithmes que nous utilisons n’ont rien d’intelligents, pas de sens moral, pas de capacité de planification, pas de raisonnement. C’est une suite de manipulations de caractères.
« Intelligence artificielle » , ce terme fait un peu peur. C’est assez prométhéen. Néanmoins, encore une fois, ce sont des outils extrêmement utiles mais pas intelligents. L’IA, ce sont des statistiques sous stéroïdes. Elle ne crée rien, elle reproduit.
L’IA est un accélérateur de la transition numérique, de la numérisation des process des entreprises
Vous avez longtemps été enseignant chercheur, comment êtes-vous devenu aussi entrepreneur et fondateur de LightOn ?
Je suis physicien de formation et j’ai travaillé une quinzaine d’années dans la physique des ondes. L’aventure LightOn est partie d’une collaboration de recherche sur l’utilisation de la photonique, c’est-à-dire de la lumière, pour effectuer certains calculs. Nous avons développé un processeur pour des calculs de l’IA en grandes dimensions.
Et à l’arrivée de GPT3 en 2020 , on s’est dit qu’on pouvait appliquer notre savoir-faire à l’entraînement de ces moteurs. LightOn a alors pivoté du hardware au software. Notre ambition est de rendre l’IA plus facile à utiliser, qu’elle fasse gagner du temps dans l’entreprise, du PDG au stagiaire.
Quelles sont vos activités précisément ?
Nous développons des « grands modèles de langage » (« LLM », pour Large Langage Model) sur des bases propriétaires, pour nos propres besoins ou ceux de nos clients, et que l’on interroge comme ChatGPT, par prompt. Notre modèle, que nous avons baptisé Alfred, est disponible en open source. Nous avons aussi développé une plateforme appelée Paradigm afin de gérer le cycle de vie de ces modèles en entreprise ; nous l’installons sur leurs propres serveurs pour garantir la confidentialité de leurs données.
Les applications sont nombreuses, comme pouvoir interroger des bases documentaires en langage naturel. Nous avons, par exemple, mis en place un chatbot de support informatique pour tous les collaborateurs du Conseil régional d’Ile-de-France. Notre modèle répond aux demandes en indiquant la procédure à suivre et cite ses sources, ce qui limite les risques d’hallucination.
Qu’a changé pour vous l’émergence de l’IA dans le débat public ?
On remercie OpenAI d’avoir éduqué le marché et le grand public. Depuis 2022, nous avons constaté une forte accélération de marché. Toutes les grandes entreprises se doivent aujourd’hui d’avoir une stratégie dans l’IA générative. Evidemment, toutes n’ont pas le même niveau de maturité. Mais l’IA est un accélérateur de la transition numérique , de la numérisation des process des entreprises.
Depuis cette accélération, LightOn a bien grandi et emploie désormais plus de 35 personnes. 2023 a été une très bonne année et nous a permis d’atteindre la rentabilité. Nous comptons une dizaine de clients grands comptes, dans la banque, les assurances et les services publics, des clients particulièrement sensibles à la souveraineté sur leurs données.
L’Europe semble encore à la traîne par rapport aux Etats-Unis et à la Chine. Pourra-t-elle rattraper son retard ?
Rattraper, je ne sais pas, mais quelque chose se passe qui me rend optimiste. La France a des atouts à faire valoir : nos talents, en particulier. On a d’excellentes formations en mathématiques, en physique, en ingénierie… et une bonne recherche universitaire.
Côté points faibles, on n’a pas de géant du numérique. Ce qui fait la Silicon Valley, ce sont les Gafam qui irriguent l’écosystème. Mais ça vient… Nous avons un écosystème dynamisé par une génération d’entrepreneurs de la tech qui réinvestissent dans les start-up.
Nous sommes loin d’une IA qui sache raisonner, d’une IA forte ou de la singularité
Quels messages vouliez-vous faire passer à travers « Dream Machine », le roman graphique que vous avez récemment publié ?
Cette BD est née de ma rencontre avec le dessinateur et coscénariste indien Appupen, qui était en résidence à Angoulême fin 2021. Il avait envie d’écrire quelque chose sur l’IA pour en expliquer les enjeux, et moi j’ai tout de suite aimé son univers graphique. Au début, ce devait être un livre de pure vulgarisation, mais notre éditeur a insisté pour que je m’inspire de ma vie d’entrepreneur. Le message principal est que l’IA, c’est très puissant mais que ce n’est pas de l’intelligence. Le jour où les gens comprendront cela, ils en auront moins peur.
La rapidité des progrès actuels ne vous effraie pas ?
Les progrès les plus récents sont fascinants. L’accélération est sidérante, et je ne suis pas naïf. Il ne faut pas avoir peur de la technologie, mais de la façon dont on peut l’utiliser, pour du contrôle social par exemple. Cette peur masque les enjeux réels et concrets des bouleversements portés par l’IA sur l’emploi, la formation, les monopoles économiques…
L’IA est aujourd’hui presque totalement privatisée. Quand j’ai commencé, elle était principalement développée dans les universités et peu dans les grandes entreprises. Aujourd’hui, c’est l’inverse. La grande majorité des systèmes d’IA sont le fait de grands acteurs privés qui ont chacun leur agenda.
Etes-vous favorable à une régulation ?
J’y suis favorable mais pas sur la technologie, seulement sur les usages. On n’arrêtera pas la recherche. Il est important qu’il y ait un code de la route comme pour la voiture. Mais il sera très difficile de réguler les capacités des modèles, notamment avec le développement des IA polyvalentes génératives. L’essentiel pour moi est que l’IA Act prévoit qu’on ne puisse pas déployer d’IA qui prenne des décisions automatiques ayant un impact sur la vie des gens.
Vous croyez possible l’avènement de la singularité d’une IA réellement intelligente ?
Il faut être modeste dans nos prévisions. Je me souviens du film « Her » . On se disait à sa sortie, en 2013, que c’était de la science-fiction et pourtant, aujourd’hui, les agents conversationnels sont là. L’IA va rendre ces agents de plus en plus efficients pour nous simplifier la vie, et de plus en plus individualisés. Ils vont devenir de véritables assistants personnels adaptés à chacun.
S’il y a seulement cinq ans, je vous avais dit que les créatifs seraient un jour concurrencés par des systèmes génératifs, vous m’auriez dit que j’étais fou à lier. C’est pourtant une réalité aujourd’hui. De même, tous les métiers à base de texte seront impactés par l’IA. La machine est très bonne pour embrasser des masses de données. Elle va bouleverser la science : la génomique et la création de molécules, les nouveaux matériaux, l’ingénierie…
Mais je ne crois pas au risque existentiel pour l’humanité. C’est de la science-fiction. Nous sommes loin d’une IA qui sache raisonner, d’une IA forte ou singulière. J’ai tendance à ne pas y croire, ou alors c’est très très loin de nous.
Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.
Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.
L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?
Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.
Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.
En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.
Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.
Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?
C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.
Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes. Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?
J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.
J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.
Société et Intelligence artificielle : quelle éthique ?
Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.
Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.
L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?
Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.
Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.
En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.
Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.
Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?
C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.
Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes. Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?
J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.
J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.
Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données. Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.
Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune
Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.
L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.
Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.
D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?
Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.
Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.
L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.
_______
(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.