IA: Rattraper le retard de la France est urgent
Comment pouvons-nous adopter des règles communes pour encadrer l’usage de l’IA sans y adosser un investissement collectif ? Régulation et investissement doivent aller de pair si nous voulons garantir un usage éthique et concurrentiel de l’IA et ne pas céder le leadership technologique à d’autres nations.
Ce besoin de cohérence stratégique trouve un écho direct dans le quotidien des entreprises, confrontées à des défis concrets liés à l’adoption de l’IA. Entre les jeunes embauchés familiers des outils d’IA générative et des pratiques parfois non encadrées chez les salariés en poste, l’adoption structurée devient urgente pour garantir un usage sûr et efficace. Ces enjeux trouvent une réponse prometteuse dans les réussites observées dans des secteurs comme la Finance et l’Assurance, qui montrent clairement la voie à suivre pour une intégration réussie de l’IA.
IA Act : une nécessité
C’est dans ce contexte que l’AI Act (1), la première tentative législative ambitieuse de l’Union européenne, marque une étape essentielle pour établir un cadre équilibré, visant à encourager l’innovation tout en protégeant les citoyens et les entreprises.
Ce cadre harmonisé, axé sur la gestion des risques, encadre l’IA pour garantir sécurité, transparence et respect des droits fondamentaux. Il interdit les usages inacceptables comme la notation sociale, l’identification biométrique à distance (hors exceptions de sécurité publique) et la manipulation des comportements. Les systèmes « à haut risque », dans des secteurs critiques, doivent respecter des exigences strictes : contrôle humain, documentation et gestion des biais.
En parallèle, la législation encourage l’innovation en offrant des environnements contrôlés, appelés « bacs à sable réglementaires », pour tester et développer des systèmes d’IA dans des conditions réelles. Cette démarche vise à concilier régulation et promotion de la compétitivité technologique européenne.
Cependant, cette volonté de régulation ne fait pas l’unanimité. Les premiers retours des GAFAM ne se sont pas fait attendre, et certains choix stratégiques montrent déjà des frictions avec ces ambitions européennes : Apple Intelligence et Sora d’OpenAI ne sont tout simplement pas (encore) disponibles en France. Une absence qui illustre les tensions possibles entre innovation internationale et régulations européennes.
Encadrer l’IA sans investir : une aberration européenne ?
Alors que la France s’apprête à accueillir le Sommet pour l’Action sur l’Intelligence Artificielle à Paris les 10 et 11 février, Donald Trump annonce investir 500 milliards de dollars pour bâtir les infrastructures physiques et virtuelles à même de porter la prochaine génération d’IA. A titre de comparaison, la France s’est dotée d’un plan d’investissement de 2,5 milliards d’euros (2) et le Royaume-Uni de 17 milliards d’euros, avec une même ambition : devenir un leader en IA.
Nos plans d’investissements nationaux ne suffiront plus à assurer un leadership face à des nations comme la Chine, les États-Unis ou même le Royaume-Uni. Notre capacité à rester dans cette course se fera au prix d’un investissement commun en Europe, ou sous une forme de « conglomérat étatique ». Or, réguler sans investir de manière substantielle est un non-sens face au Royaume-Uni, qui investit massivement dans l’IA sans encadrement, ou face aux États-Unis, où l’élection du duo Trump-Musk en 2024 marque un abandon certain des projets de régulation envisagés par l’administration précédente.
Clara Chappaz, secrétaire d’État à l’Intelligence Artificielle et au Numérique, a récemment mis en exergue le faible nombre d’entreprises françaises ayant véritablement adopté l’IA. À travers des initiatives comme le « café de l’IA », elle cherche à sensibiliser les acteurs économiques et à recenser des cas d’usage concrets pour encourager une adoption plus large de ces technologies.
Ce constat révèle un double paradoxe. D’un côté, une étude récente (3) montre l’ambition des dirigeants de « gagner la course sur le terrain de l’IA », mais celle-ci reste entravée par des moyens insuffisants. De l’autre, le véritable décalage provient des entreprises elles-mêmes, qui peinent à adopter l’IA alors que les jeunes diplômés fraîchement embauchés maîtrisent déjà les outils d’IA génératives et que les salariés en poste utilisent souvent ces outils en catimini, dans un cadre où la sécurité et la maîtrise ne sont pas assurées.
Ce paradoxe entre ambition déclarée et adoption limitée n’est pourtant pas une fatalité. Certaines entreprises et secteurs économiques ont déjà trouvé des solutions concrètes pour intégrer l’IA générative avec succès.
Dans le secteur de l’assurance, connu pour son adoption précoce de l’IA dans la lutte contre la fraude, l’IA générative est désormais exploitée pour améliorer l’accompagnement client, automatiser les tâches administratives et analyser les contrats. AG2R a investi dans le développement d’un outil d’IA générative sécurisé. D’autres acteurs majeurs comme AXA, COVEA (MAAF, MMA, GMF) ou encore MACIF utilisent également des solutions d’IA pour optimiser la prise de décision et renforcer leurs opérations.
L’IA générative optimise les processus de back-office, simplifiant le rapprochement comptable, l’analyse des performances et la catégorisation des dépenses et flux financiers. Elle améliore également la productivité des équipes techniques en aidant à créer des algorithmes financiers avec des outils comme GitHub Copilot.
Dans le secteur de l’audit, de l’expertise comptable et du conseil, certains cabinets intègrent l’IA dans leurs pratiques. Par exemple, des collaborateurs utilisent des outils comme Microsoft Copilot 365 pour les accompagner dans leurs tâches quotidiennes. D’autres développent des solutions d’IA générative destinées à analyser des documents réglementaires ou volumineux dans le cadre des missions d’audit, et à produire automatiquement des synthèses commentées pour les activités de conseil.
L’IA générative transforme également le secteur bancaire, offrant des gains significatifs en productivité et en efficacité. BBVA, première banque européenne à avoir noué un partenariat avec OpenAI, en est un exemple phare. L’institution a développé 2 900 modèles GPT personnalisés pour répondre rapidement et avec précision aux questions des clients, réduisant ainsi les délais de traitement. De son côté, JP Morgan a mis en place une solution interne, « LLM Suite », un assistant IA mis à disposition des salariés permettant d’automatiser des tâches administratives complexes telles que la rédaction de rapports et de courriels.
Enfin, chez Morgan Stanley, l’assistant IA baptisé « Debrief » illustre un autre cas d’usage : la création automatisée de synthèses des réunions clients qui ferait gagner jusqu’à 15 heures par semaine par employé.
–
(1) Règlement UE 2024/1689 du 13-6-2024, JOUE du 12-7
(2) « Intelligence artificielle : l’Europe a-t-elle déjà perdu la bataille face aux Etats-Unis ? », Figaro, Emma Confrère, 22/01/2025
(3) Des CEO déterminés à gagner la bataille de l’IA, Les Echos, Etude CEO Outlook 2024, KPMG