Archive pour le Tag 'artificielle'

Page 3 sur 11

Conséquence de l’intelligence artificielle, IBM pourrait supprimer 30 % des emplois

Conséquence de l’intelligence artificielle, IBM pourrait supprimer 30 % des emplois

Le patron d’IBM envisage de réduire drastiquement le personnel administratif du géant informatique, étant donné le potentiel de l’intelligence artificielle (IA) et des technologies d’automatisation à exécuter ce type de tâches. « Il me semble que 30% (des 26.000 employés administratifs) pourraient facilement être remplacés par l’IA et l’automatisation sur une période de cinq ans », a déclaré Arvind Krishna à Bloomberg lundi.
Le dirigeant prévoit donc un gel des recrutements dans ce département, qui représente une fraction des quelque 260.000 salariés du groupe américain.

Comme de nombreuses entreprises de la tech, IBM a mis en place un plan social cet hiver. Le groupe devrait licencier 5000 employés en tout, d’après Bloomberg, mais a en parallèle embauché 7000 personnes au premier trimestre.

Le pionnier de l’IA générative OpenAI a démontré avec son interface ChatGPT et d’autres outils que ces nouvelles technologies sont capables de rédiger des emails, de créer des sites web, de générer des lignes de codes, et, en général, d’exécuter de nombreuses tâches répétitives.

Quel avenir de l’emploi avec l’intelligence artificielle

Quel avenir de l’emploi avec l’intelligence artificielle

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial, prévoit davantage d’emplois supprimés que créés en un particulier en raison de la progression de l’intelligence artificielle mais aussi de la prise en compte de la transition écologique. Bref globalement une vision assez pessimiste sur l’impact des nouvelles technologies et de la préoccupation environnementale. (Un papier de la Tribune)

Un rapport intéressant mais qui comme d’habitude en reste à des généralités assez connues et parfois approximatives concernant en particulier les emplois nouveaux et où transformés. On peut aussi faire l’hypothèse d’une croissance globale de l’emploi en prenant en compte les tendances macro-économiques, sociétales ou encore géopolitiques. NDLRu

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial évalue l’impact des macro-tendances et des changements technologiques sur les emplois et les compétences au cours des cinq prochaines années et constate que près d’un quart de tous les emplois (23 %) dans le monde changeront au cours des cinq prochaines années. En France, 19 % des emplois changeront – 11 % de croissance et 8 % de déclin.

Il est difficile de surestimer à quel point les dernières années ont été tumultueuses pour les travailleurs du monde entier. Une pandémie mondiale a entraîné des fermetures d’entreprises pour la plupart des gens, à l’exception des travailleurs essentiels, puis, prudemment, des retours partiels au travail ou des pertes d’emploi dans des secteurs qui ne se sont jamais complètement rétablis. Presque immédiatement, cette situation a été suivie par les perturbations causées par la guerre et la flambée des prix de l’énergie et des denrées alimentaires, ce qui a entraîné une baisse des salaires réels.

L’adoption des technologies, qui s’était déjà accélérée avant et pendant la pandémie, risque d’entraîner une nouvelle vague de transformation, en particulier pour les cols blancs, grâce à l’essor de l’IA générative. Et maintenant, une forte pression en faveur d’une transformation verte indispensable conduit également à des attentes de déplacement futur dans les rôles à forte intensité de carbone en faveur de la croissance dans les emplois et les compétences verts émergents.

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial, publié aujourd’hui,C’est le pronostic qui prévoit davantage d’emplois supprimés que créés en un particulier en raison de la progression de l’intelligence artificielle mais aussi de la prise en compte de la transition écologique. Bref globalement une vision assez pessimiste sur l’impact des nouvelles technologies et de la préoccupation environnementale.

évalue l’impact des macro-tendances et des changements technologiques sur les emplois et les compétences au cours des cinq prochaines années et constate que près d’un quart de tous les emplois (23 %) dans le monde changeront au cours des cinq prochaines années. Dans 45 économies, couvrant 673 millions de travailleurs, 69 millions d’emplois devraient être créés et 83 millions supprimés, soit une diminution nette de 14 millions d’emplois, ou 2 % de l’emploi actuel. En France, 19 % des emplois changeront – 11 % de croissance et 8 % de déclin.

Les investissements dans la transition écologique et la sensibilisation croissante des consommateurs aux questions de durabilité créeront de nouvelles opportunités. La technologie créera des changements structurels, un quart des entreprises voyant l’emploi diminuer avec l’adoption de nouvelles technologies et plus de la moitié voyant l’emploi augmenter. Mais la frontière entre l’homme et la machine se déplace vers un nouveau terrain. Si les prévisions de déplacement du travail physique et manuel par les machines ont diminué, les tâches exigeant du raisonnement, de la communication et de la coordination – autant de caractéristiques pour lesquelles l’homme dispose d’un avantage comparatif – devraient être davantage automatisables à l’avenir. Nous constatons également que près de la moitié des compétences d’un individu – 44 % – devront être modifiées en moyenne pour l’ensemble des emplois.

En France, l’évolution des compétences de base sera de 46 %, soit plus que la moyenne mondiale, et les entreprises françaises accordent la priorité à la résilience et à la flexibilité, à l’IA et au big data, ainsi qu’à la pensée analytique pour la requalification et l’amélioration des compétences des travailleurs.

Comment les apprenants, les travailleurs, les employeurs et les gouvernements doivent-ils se préparer à l’avenir de l’emploi ? Dans un monde à forte intensité technologique, plus vert et potentiellement en voie de démondialisation, le développement local des compétences sera plus important que jamais.

Pour les étudiants d’aujourd’hui, les compétences analytiques et interpersonnelles ainsi que la capacité à comprendre et à travailler avec la technologie seront essentielles. Chaque étudiant, quel que soit le domaine qu’il choisit, devrait s’efforcer d’acquérir ces compétences généralistes afin d’être prêt à affronter un avenir en rapide évolution.

Pour les travailleurs d’aujourd’hui qui travaillent dans des domaines en déclin, un effort important de requalification et de transition est nécessaire, tandis que pour ceux qui travaillent dans des domaines en évolution ou en croissance, il est nécessaire d’améliorer les compétences et de développer la capacité d’apprendre en permanence. La bonne nouvelle, c’est qu’il est possible d’acquérir rapidement des compétences et que l’apprentissage en ligne peut offrir des conditions équitables : les travailleurs de tous les niveaux d’éducation – y compris ceux qui n’ont pas fait d’études supérieures – prennent le même temps pour acquérir des compétences en ligne.

Cependant, les apprenants et les travailleurs ne peuvent pas être les seuls à s’engager sur un nouveau terrain complexe. Les gouvernements doivent fournir des ressources et une feuille de route. Il s’agit là d’un double défi majeur et sans précédent pour l’élaboration des politiques : les gouvernements doivent trouver un équilibre entre le soutien à l’innovation et la réglementation nécessaire pour assurer la sécurité des nouvelles technologies, tout en soutenant les travailleurs au moyen de filets de sécurité, de systèmes de soins et de centres pour l’emploi. Ils doivent également réaliser des investissements importants dans les systèmes de compétences, les certifications rapides et les partenariats avec le secteur de l’éducation, les entreprises et les organisations à but non lucratif, afin de favoriser le changement à grande échelle.

Les employeurs doivent jouer leur rôle en investissant dans la requalification et l’amélioration des compétences – la plupart d’entre eux s’attendent à un retour sur investissement dans l’année qui suit, ce qui fait de la formation le moyen d’action le plus efficace et le plus responsable. Les meilleurs employeurs vont plus loin : ils soutiennent les transitions des travailleurs en dehors de l’entreprise lorsque cela est nécessaire, accordent la priorité à la sécurité et au bien-être, encouragent la diversité, l’équité et l’inclusion et, enfin, privilégient une approche axée sur les compétences plutôt que sur les qualifications ou les antécédents professionnels. Les employeurs qui prennent ces mesures comblent plus rapidement les déficits de compétences et il est prouvé qu’ils améliorent la loyauté, la productivité et la motivation.

Il ne fait aucun doute que l’avenir du travail sera perturbé. Mais il n’est pas forcément dystopique. Au contraire, il peut être l’occasion de jeter les bases qui permettront de placer les individus au cœur de la nouvelle économie mondiale.

L’intelligence artificielle et l’emploi

L’intelligence artificielle et l’emploi

Un papier de Gilles Babinet n’est de la tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

Intelligence artificielle : trouver équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Rédiger un commentaire
À lire aussi
Decathlon
www.decathlon.fr
|
Sponsorisé

Nouvelles technologies-L’ intelligence artificielle pour remplacer les auteurs ?

Nouvelles technologies-L’ intelligence artificielle pour remplacer les auteurs ?


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

Intelligence artificielle : la fin du travail ?

Intelligence artificielle : la fin du travail ?


Le sociologue Juan Sebastian Carbonell dégonfle, dans une tribune au « Monde », le discours apocalyptique d’un remplacement des emplois par les machines, qui dissimule mal, selon lui, une crise du travail d’une tout autre nature.

C’est l’un des paradoxes actuel : au moment même où la question du travail redevient centrale en raison du mouvement social contre la réforme des retraites, on remarque un retour en force des discours sur la fin du travail. Futurologues, essayistes et journalistes se posent cette question : pourquoi se mobiliser contre le recul de deux ans de l’âge à la retraite, alors que l’intelligence artificielle (IA) va révolutionner le monde du travail ?

A en croire tribunes et prises de position, salariés et étudiants n’auraient pas compris où sont les vrais dangers du moment. Ils auraient même tort de manifester, car le recul de l’âge légal de départ à la retraite ne serait rien face aux dangers de l’intelligence artificielle ou de ChatGPT. On annonce alors la suppression de millions d’emplois sous les effets de l’IA et de ses avancées ; on parle d’une nouvelle révolution industrielle, de « désordres indescriptibles », d’un « bouleversement » sans précédent de la structure de l’emploi. Rien de moins.

Ces discours technofatalistes et apocalyptiques n’ont rien de nouveau. Après tout, à chaque révolution industrielle a été proclamée la disparition du travail et a été opposé le « progrès technologique » au bien-être des travailleurs et des populations, même si jamais de telles prédictions ne se sont confirmées.

Mais d’où viennent ces discours ? D’abord, d’entrepreneurs du secteur du numérique qui cherchent à faire parler de leurs services et à attirer des financements. C’est ce qui explique que les discours sur les révolutions technologiques sont hyperboliques et exagérément optimistes. Ce n’est donc pas un hasard si, après l’engouement autour de ChatGPT en début d’année, Microsoft a décidé d’investir 10 milliards de dollars (9,1 million d’euros) dans OpenAI, entreprise propriétaire du robot conversationnel.

Ensuite, de cabinets de conseil qui font leur miel de cette panique sur la fin du travail, vendant des « solutions IA » à des entreprises qui ne veulent pas être à la traîne sur un sujet présenté comme révolutionnaire dans les médias. Enfin, de « futurologues » et d’experts autoproclamés pour qui il s’agit de faire parler de leurs livres, d’être invités dans les médias et à donner des conférences.

Intelligence artificielle : quelle conséquence sur le travail ?

Intelligence artificielle : quelle conséquence sur le travail ?

En s’aidant des nouvelles technologies d’intelligence artificielle et de Machine Learning, les entreprises pourront recruter, développer et retenir les bons talents. À condition de bien encadrer ces technologies. Par Hubert Cotté, vice-président et directeur général de Workday France. ( dans la Tribune)

Un article à lire mais qui se contente des généralités peu éclairantes sur les changements structurels du travail NDLR

Dans un contexte où la plupart des métiers de 2030 n’existent pas encore, le monde du travail ne correspond plus à cette conception linéaire et figée. Si le diplôme demeure important, il n’est plus l’alpha et l’oméga des parcours de carrière. L’incertitude dans laquelle évoluent les entreprises, les développements technologiques et l’essor du travail hybride ont en effet changé la donne.

Aujourd’hui, l’importance accordée à l’expérience collaborateur ne fait plus débat. Offrir une certaine flexibilité et des outils technologiques efficients est devenu incontournable. De plus, une attention particulière est désormais portée au collaborateur dans son individualité. Ainsi, au-delà des compétences métier, les managers commencent à prendre en compte les centres d’intérêt et les expériences de leurs collaborateurs, dans la mesure où ils reflètent des qualités (ou « soft skills ») que l’entreprise peut valoriser. Par exemple, les profils d’un chef de chœur d’une chorale ou d’un ancien capitaine d’une équipe de rugby cadet sont à présent recherchés et reconnus pour leur capacité à gérer des équipes.

Préparer le recrutement en continu des emplois de demain nécessite d’adopter une stratégie novatrice, stimulée par la puissance de l’intelligence artificielle (IA) et de l’apprentissage automatique (ML). Tout d’abord, il faut abandonner l’idée rigide selon laquelle seuls certains types de profils sont habilités à réaliser certains types de tâches. De plus en plus, le travail s’organise en missions, lesquelles requièrent certains savoir-faire métier et qualités personnelles. Tout l’enjeu, pour gagner en agilité, est de repérer ces compétences, aptitudes et savoir-être, et de les allouer au bon endroit et au bon moment.

Quelques pistes existent pour faire de cette nouvelle organisation du travail un levier d’attraction et de fidélisation de talents. Le recours aux technologies telles que l’IA ou le ML permet d’identifier qui, pour une mission donnée, a les expertises requises, ou qui, encore, est désireux de les développer. L’employeur est donc en mesure d’orienter ses collaborateurs vers des projets qui ont du sens pour eux, et de favoriser leur montée en compétences dans les domaines qui les intéressent. Ainsi, les talents ont la possibilité de façonner un parcours de carrière quasi à leur mesure, qui n’est pas prédéterminé.

Dans un monde fragmenté, la technologie peut contribuer au progrès humain. Il ne faut pas pour autant en faire une religion ! Le potentiel de dérives existe et a été démontré. Pour améliorer notre manière de travailler et promouvoir une plus grande égalité dans l’accès aux opportunités, il est essentiel que les algorithmes soient conçus avec responsabilité. Cela suppose, d’une part, d’être vigilant à la provenance et à la confidentialité des données, et d’autre part, de s’assurer que les algorithmes ne reproduisent pas des comportements biaisés. Des problématiques majeures qui nécessitent d’associer dans une réflexion commune toutes les parties prenantes, y compris les entreprises qui développent ces technologies !

Quatre principes clés permettent d’encadrer de manière responsable la façon dont les technologies d’IA et de ML sont développées : améliorer le potentiel humain, impacter positivement la société dans son ensemble, promouvoir la transparence et l’équité, être intransigeant en matière de confidentialité et de protection des données.

Ensemble, les secteurs public et privé peuvent travailler à l’établissement de normes et de politiques garantissant que ces nouvelles technologies de l’IA et du ML favoriseront le progrès humain, créeront des opportunités d’emploi pour les générations à venir et feront croître nos économies de manière responsable.

L’ intelligence artificielle pour remplacer les créateurs ?

L’ intelligence artificielle pour remplacer les créateurs ?


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

L’ intelligence artificielle pour remplacer les auteurs

L’ intelligence artificielle pour remplacer les auteurs


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

Intelligence artificielle: quel danger ?

Intelligence artificielle: quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune.

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux.

Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

Intelligence artificielle: un danger ?

Intelligence artificielle: un danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune.

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux.

Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

« L’intelligence artificielle va générer plus d’emplois qu’elle n’en élimine »

« L’intelligence artificielle va générer plus d’emplois qu’elle n’en élimine »

Par
Georges Nahon, Ancien directeur du centre d’innovation d’Orange à San Franciscodans Le Monde

Un article qui mérite la lecture mais dont il faut sans doute relativiser les conclusions. En effet, l’intelligence artificielle n’en est qu’à ses débuts et à terme personne ne peut savoir quelles seront les conséquences notamment quantitatives sur l’emploi car la révolution reste encore à venir. NDLR

L’exceptionnelle accélération des progrès de l’intelligence artificielle (IA) et la rapidité fulgurante de son adoption par des millions de gens en un temps record, grâce notamment à ChatGPT et au lancement de GPT-4, une nouvelle version sortie à la mi-mars avec des améliorations considérables, amènent de nombreux observateurs à poser à nouveau une brûlante question : est-ce que l’IA remplacera, déplacera ou créera de nouveaux emplois ?

Au début 2023, la vague d’environ 200 000 licenciements qui a touché le secteur de la technologie aux Etats-Unis, notamment dans la Silicon Valley, a été attribuée à la crise économique et géopolitique mondiale, et au surrecrutement intervenu pendant et juste après la pandémie du Covid-19. L’IA était donc hors de cause.

Mais, d’ici à 2025, estime le Forum économique mondial, l’IA remplacera quelque 85 millions d’emplois, tandis que 97 millions de nouveaux emplois seraient créés sur la même période grâce à l’IA. Selon le cabinet de conseil PwC, l’IA sera responsable d’une augmentation de 14 % du produit intérieur brut de l’Amérique du Nord d’ici à 2030.

Sam Altman, président d’OpenAI, l’entreprise qui a développé ChatGPT, s’inquiète de la rapidité avec laquelle certains emplois seraient remplacés dans un proche avenir. Une nouvelle étude d’OpenAI publiée en mars estime que ChatGPT et les futurs outils « génératifs » qui en dérivent pourraient avoir un impact sur la moitié des tâches accomplies par environ 19 % des travailleurs aux Etats-Unis. Et 80 % verraient au moins 10 % de leurs tâches affectées par ChatGPT.

De nouvelles compétences
Rappelons toutefois que l’utilisation d’outils logiciels comme Excel a rendu le travail des comptables plus efficace, leur permettant de se concentrer sur des tâches plus complexes qui nécessitent leur expertise spécifique. Excel n’a pas réduit le besoin de comptables, mais a amélioré leur efficience. Et le nombre de comptables a augmenté aux Etats-Unis.

Lire aussi la tribune : Article réservé à nos abonnés « ChatGPT nous invite à un regain d’intelligence dans tous les domaines, dont l’enseignement »
En réalité, l’adoption généralisée de l’IA exigera de nouvelles compétences techniques et non techniques. L’IA générative a un impact visible dans les domaines créatifs tels que la musique, l’art et l’écriture. Ce qui crée de nouveaux rôles, tels que ceux de spécialiste du contenu généré par l’IA, conservateur d’art IA et producteur de musique IA. Un autre domaine exigeant de nouvelles compétences est celui des services commerciaux, notamment avec les chatbots [robot conversationnel en ligne] et les assistants virtuels alimentés par l’IA.

L’IA générative change aussi la nature des emplois existants. Par exemple, les comptables peuvent maintenant utiliser des systèmes alimentés par l’IA pour automatiser de nombreuses tâches, libérant ainsi du temps pour d’autres tâches plus stratégiques. De même, les médecins peuvent utiliser des systèmes alimentés par l’IA pour analyser les données des patients et identifier les risques potentiels pour la santé. L’impact est aussi très significatif dans le monde du droit.

L’intelligence artificielle pour remplacer l’ humain ?

L’intelligence artificielle pour remplacer l’ humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

Quelle éthique face à l’intelligence artificielle

Quelle éthique face à l’intelligence artificielle

Intreview d’Irene Solaiman ex experte d’ OpenAI, chercheuse sur l’impact social de l’IA dans la Tribune

LA TRIBUNE – ChatGPT a-t-il révolutionné la façon dont les chercheurs voient les modèles de langage ?

IRENE SOLAIMAN – ChatGPT relève du jamais vu par sa viralité. Mais je ne dirais pas que la technologie elle-même est sans précédent. Plus généralement, même si les modèles de langage deviennent plus puissants, c’est surtout la façon dont les utilisateurs interagissent avec qui a changé. Quand j’ai commencé à travailler sur les modèles de langage il y a quelques années, il fallait avoir un certain niveau de compétence informatique pour envoyer des requêtes, mais ce n’est plus le cas aujourd’hui. L’IA s’est démocratisée, il faut donc des interfaces qui améliorent l’accessibilité. Le problème, c’est que donner plus d’accessibilité mène à plus de potentiels usages malveillants et c’est pourquoi il nous faut intégrer des protections pour garantir que l’usage de la technologie reste éthique.

Dans votre article, vous écrivez : « puisqu’un système ne peut pas être entièrement sans danger et dépourvu de biais pour tous les groupes de personnes, et qu’il n’existe aucun standard clair pour déterminer si un système est suffisamment sûr pour une diffusion publique, des discussions supplémentaires doivent être menées avec toutes les parties prenantes ». Ce constat signifie-t-il que les modèles de langages sont condamnés à être défaillants ?

Je demande toujours pour qui nous construisons ces modèles, et à qui y donne-t-on accès. Un dicton dans le milieu est « garbage in, garbage out » [si on nourrit l'IA avec du déchet, il en sortira du déchet, ndlr]. Ce principe est à l’origine de la plupart des problèmes des modèles de langage, car les données sur lesquelles ils sont entraînés ont été récupérées sur Internet, le plus souvent sur des contenus écrits en alphabet latin. Si on ajoute à cela la question de la connectivité, on réalise que les biais des nations occidentales sont surreprésentés.

Or quand on publie un modèle, encore plus sous la forme d’un produit comme ChatGPT, on veut qu’il soit sans danger pour tout le monde. Mais ce qui est considéré comme sûr pour un groupe de personnes ne l’est pas pour un autre. C’est ici qu’entrent en compte les différences culturelles sur les questions de la beauté, de la sexualité ou encore de la violence, qui rendent l’équation très compliquée pour les chercheurs.

Comment les chercheurs font-ils pour prendre en compte et diminuer ces risques ?

C’est une des questions les plus compliquées actuellement, et la solution ne viendra pas forcément d’une méthode ou d’un outil en particulier. Il faut faire attention au solutionnisme technologique. La solution relève la fois du politique, d’un travail avec la société civile, et de beaucoup de retours d’utilisateurs. Or, les organisations qui mettent en avant des systèmes fermés n’ont pas toutes les perspectives nécessaires en interne pour répondre à ces enjeux. C’est pourquoi je défends une ouverture éthique des systèmes.

Lors des sorties successives de ChatGPT et celles de BingChat, plusieurs utilisateurs se sont empressés d’en tester les limites, et de pousser les outils à la faute. Résultat : les IA finissent par mentir, et BingChat a même pris un ton agressif avec certains utilisateurs. Les concepteurs des modèles doivent-ils prendre en compte ce genre de pratiques extrêmes avant de publier leur outil ?

En fonction de ce qui est demandé, ces comportements peuvent mener à une amélioration du système, et avoir les mêmes effets bénéfiques que le passage d’une red team [une équipe chargée de trouver les failles d'un système pour mieux les réparer, ndlr]. Quand un nouveau système est publié et qu’il attire beaucoup d’attention, il va recevoir un flot permanents de tests, encore plus que ne l’aurait fait n’importe quelle organisation dont ce serait la charge. Le problème sous-jacent, c’est qu’aucun des développeurs ne peut identifier à l’avance tous les cas d’usages possibles de ces systèmes, car ils ne sont pas construits pour une application particulière.

Pour une partie des experts, ce talon d’Achille des IA génératives comme ChatGPT, Stable Diffusion ou Midjourney, justifie un accès assez rapide au modèle, afin de mettre en place le mécanisme de feedback [retour des utilisateurs, ndlr] qui va leur permettre d’améliorer le modèle. C’est aujourd’hui la norme dans la tech : on participe par exemple à ce type de mécanisme lorsque l’on utilise le moteur de recherche de Google. C’est ensuite aux décideurs politiques de trancher si ces comportement sont bons ou mauvais.

Vous vous interrogez dans votre article sur la responsabilité en cas d’erreur ou de débordement. Qui doit prendre en charge cette responsabilité ?

J’essaie de distinguer les personnes impliquées en plusieurs catégories : les développeurs, les « déployeurs » c’est-à-dire ceux qui sont chargés de mettre en place les cas d’usage du modèle, et les utilisateurs. Un des enjeux au niveau politique est de définir qui porte le fardeau et de s’assurer que le modèle est sans danger. Mais tous les acteurs impliqués partagent la responsabilité à différents niveaux. Les développeurs vont être ceux qui ont la meilleure compréhension du modèle. En revanche, ils n’ont pas toujours les compétences, notamment celles liées aux sciences sociales, pour examiner les effets du modèle sur la société.

En conséquence, pour l’instant, la majeure partie de la pression des régulateurs est portée sur les déployeurs. Ils n’ont peut-être pas autant accès au modèle que les développeurs, mais ils peuvent avoir une bien meilleure compréhension de ses implications. En bout de chaîne, il y a l’utilisateur, qui ne devrait pas avoir à porter cette responsabilité, car il est difficile d’avoir le niveau de connaissance nécessaire pour bien comprendre les limites de ces modèles.

Vous avez mené le déploiement de GPT-2, que OpenAI définissait dans un premier temps comme « trop dangereux pour être publié dans son intégralité », avant de finalement revenir sur cette précaution. Pensez-vous que cet épisode a changé la façon d’envisager le déploiement des IA au niveau de l’industrie ?

Je pense que l’approche que nous avons pris pour GPT-2 s’avère rétrospectivement être un tournant dans la façon dont nous pensons les modèles de langage et leur publication. C’était un test, dont je suis encore aujourd’hui heureuse de l’issue. J’ai travaillé avec des juristes, avec les développeurs du modèle ou encore avec des chercheurs extérieurs et tous ont été absolument essentiels pour comprendre les complexités de la publication du modèle. Nous avons fait un déploiement graduel, qui a été possible parce que nous étions extrêmement impliqués dans la recherche et que vous surveillions attentivement ce que les gens faisaient avec GPT-2. Je pense que c’était un bon exemple de publication graduelle, mais qu’encore aujourd’hui d’autres méthodes peuvent être tout aussi pertinentes.

Satya Nadella, le CEO Microsoft, a clairement évoqué le début d’une course à l’IA. Ses concurrents, à commencer par Google et Meta, ont dit qu’ils pouvaient créer des équivalents de ChatGPT mais qu’ils voulaient prendre plus de précautions. Avez-vous peur que la course économique sacrifie l’éthique ?

C’est quelque chose que nous craignons depuis des années. Nous avons toujours mis en garde contre ce genre de concurrence précipitée, et contre la possibilité qu’il fasse émerger des standards basés sur la puissance et les capacités, aux dépens de l’éthique. Car aujourd’hui, il n’y a pas d’organisme de régulation qui détermine clairement quels sont les modèles les plus puissants, encore une fois parce qu’ils ne sont pas destinés à des tâches précises.

En parallèle, nous sommes plusieurs chercheurs à travailler sur la création de standards d’évaluation qui mettraient en avant l’impact sociétal des IA, notamment sur des sujets de divergence culturelle comme la beauté, la sexualité ou la violence, en plus de critères plus classiques comme les discriminations de genre et ethnique. Après tout, si un modèle ne fonctionne pas correctement pour tout le monde, on peut considérer qu’il ne fonctionne pas du tout. Le problème, c’est qu’en se livrant une concurrence sur la performance, il est possible que les entreprises investissent moins dans les mécanismes de sûreté et d’éthique. C’est une éventualité effrayante, qu’on ne peut pas se permettre.

Le problème, c’est que même en étant attentif à la qualité de la production du modèle d’IA et en ayant bien fait attention aux éventuels débordements, il n’est jamais facile d’empêcher les mauvais usages d’un modèle. Début 2021, des internautes ont utilisé GPT-3 pour créer un jeu vidéo avec des textes pédopornographiques. Beaucoup de personnes ont oublié cet épisode car il est très dérangeant. Mais il illustre un problème : une fois le modèle publié, Internet va l’utiliser pour faire ce qu’il fait de mieux… et ce qu’il fait de pire.

12345...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol