Archive pour le Tag 'ChatGPT :'

Intelligence artificielle : nouvelle version de ChatGPT

Intelligence artificielle : nouvelle version de ChatGPT

 

 OpenAI, l’éditeur de ChatGPT, a présenté lundi 13 mai son nouveau modèle d’intelligence artificielle générative, GPT-4o, censé apporter à tous ses utilisateurs ses capacités les plus avancées en production et compréhension de texte, d’images et de sons et voix. « Nous sommes vraiment ravis d’apporter GPT-4o à tous nos utilisateurs gratuits. Les utilisateurs payants continueront à bénéficier de limites en termes d’utilisation cinq fois plus élevées que les utilisateurs gratuits », a déclaré Mira Murati, directrice technologique de la start-up californienne, lors d’une présentation vidéo diffusée en direct.

« Mais c’est la première fois que nous faisons un grand pas en avant en matière de facilité d’utilisation. C’est extrêmement important, il s’agit de l’avenir de l’interaction entre nous et les machines », a-t-elle ajouté. OpenAI a dévoilé un nouveau modèle, GPT-4o (« o » pour « omni »), qui peut  »raisonner » en temps réel via l’audio, la vision et le texte. Ces nouvelles capacités vont être progressivement ajoutées à ChatGPT, en commençant par le texte et l’image, d’abord pour les abonnés payants, ainsi que les utilisateurs gratuits, avec des limites en matière d’usage. La nouvelle version du « Voice Mode » (mode vocal) doit arriver dans les prochaines semaines pour les abonnés.

ChatGPT: Un échantillon de 15 secondes suffit pour le clonage de la voix

  ChatGPT: Un échantillon de 15 secondes suffit pour le clonage de la voix

 OpenAI, qui est l’une des entreprises les plus en pointe dans le monde et éditeur de ChatGPT, a présenté un outil de clonage de voix baptisé Voice Engine. Cette technologie peut reproduire la voix d’une personne à partir d’un échantillon audio de 15 secondes, d’après l’entreprise.

 En Europe, ce type d’outils pourraient d’ailleurs tomber sous le coup de l’IA Act, le nouveau règlement européen sur l’intelligence artificielle, en raison des risques trop élevés d’une utilisation malveillante.

OpenAI reconnaît les risques. « Nous admettons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale », a déclaré l’entreprise basée à San Francisco. « Nous travaillons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et d’autres secteurs et nous prenons en compte leurs commentaires au fur et à mesure que nous développons l’outil ».

 

Cette présentation prudente intervient après un incident politique majeur, quand un consultant travaillant pour la campagne présidentielle d’un rival démocrate de Joe Biden a mis au point un programme automatisé qui usurpait l’identité du président américain, en campagne pour sa réélection. La voix imitant celle de Joe Biden appelait des électeurs pour les inciter à s’abstenir lors de la primaire du New Hampshire.

Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l’IA, afin de lutter contre les arnaques politiques ou commerciales.

En octobre dernier, la Maison Blanche avait dévoilé des règles et principes pour encadrer le développement de l’IA, dont celui de la transparence. Joe Biden s’était ému à l’idée que des criminels ne s’en servent pour piéger des personnes en se faisant passer pour des membres de leur famille.

 

Elon Musk lance Grok, IA générative anti ChatGPT, gavée aux fake news de X (ex Twitter)!

Elon Musk lance Grok, IA générative anti ChatGPT gavée aux fake news de X (ex Twitter)!


Le patron de X (ex-Twitter)a longtemps demandé une sorte de pause à l’égard de l’intelligence artificielle générative pour officiellement en réguler le développement et ses excès. La vérité est différente car le patron de X (ex Twitter) était en retard par rapport à ses concurrents dans ce domaine et souhaitait donc une suspension pour les rattraper. Or aujourd’hui, il lance avec une certaine précipitation son propre modèle d’intelligence artificielle en plus gavé au fake news de X (ex Twitter) !

La régulation est en cours de réflexion aussi bien aux États-Unis qu’en Europe mais pendant ce temps-là, l’intelligence artificielle se développe. Du coup Musk est contraint de lancer avec une certaine précipitation son propre modèle d’IA générative. Le problème, c’est que les données seront surtout issues de X (ex Twitter) où foisonnent les fakes news.

On pourrait avoir des surprises assez extravagantes en interrogeant désormais le modèle d’intelligence artificielle d’Elon Musk.a révélé ce samedi le premier modèle d’intelligence artificielle générative de sa compagnie xAI. Baptisé Grok, ce ChatGPT muskien aura la particularité d’adorer les sarcasmes et d’utiliser les contenus issus du réseau social… alors que ce dernier se distingue depuis le rachat par le milliardaire comme un vivier inépuisable de fake news.

Business et nouvelles technologies : Les plates-formes (et autres chatGPT) pillent les opérateurs et créateurs de contenus

Business et nouvelles technologies : Les plates-formes (et autres chatGPT) pillent les opérateurs et créateurs de contenus


L’économiste Edmond Baranes considère, dans une tribune au « Monde », que le coût des investissements dans les télécoms repose sur les seuls opérateurs, alors que les plates-formes en sont les premières bénéficiaires.

La croissance vertigineuse du trafic de données a rendu les relations entre les opérateurs de télécommunications et les géants du numérique de plus en plus délicates. La poule aux œufs d’or est en effet le contenu, de la vidéo aux jeux, de la diffusion en direct aux publications sur les réseaux sociaux. Or, les entreprises qui sont chargées de délivrer ce contenu ne sont pas celles qui le monétisent.

La diffusion de contenu nécessite une infrastructure de réseau de qualité, intensive en capital et déployée principalement par les opérateurs télécoms. Le besoin d’investissement pour atteindre les objectifs de connectivité fixés par l’Union européenne est estimé à au moins 174 milliards d’euros supplémentaires. Ce financement et celui nécessaire au fonctionnement et à la maintenance des réseaux proviennent de l’industrie européenne des télécoms. Le modèle économique de ces opérateurs repose principalement sur un côté du marché : les consommateurs, facturés chaque mois.

De l’autre côté du marché, les fournisseurs de contenus ont connu une croissance économique remarquable en s’appuyant sur cette infrastructure. Les géants Facebook, Amazon, Netflix et Google ont développé des modèles commerciaux sophistiqués qui leur permettent de gagner de l’argent grâce à la publicité, à la monétisation des données et aux services offerts (vidéo premium, plates-formes en ligne).

Il serait facile d’en conclure que les opérateurs devraient simplement faire évoluer leur modèle en mobilisant les deux faces du marché : les consommateurs et les offreurs de contenus. Mais cela restera très peu probable en l’absence d’intervention réglementaire en raison du déséquilibre entre les pouvoirs de marché des acteurs. Le secteur des télécoms est fragmenté entre des opérateurs relativement petits, alors que les plates-formes numériques se développent à l’échelle mondiale à grande vitesse. Les relations commerciales ne sont donc clairement pas équilibrées, non sans impact négatif sur le fonctionnement efficace du marché.

Une des hypothèses testées par la Commission européenne est le partage des coûts de réseau entre entreprises numériques et opérateurs. L’intuition est simple : la diffusion des contenus, principalement monétisée par ceux qui les fournissent, génère des coûts pour les opérateurs.

IA: Aussi un moyen pour les chatGPT de s’approprier gratuitement données et contenus

IA: Aussi un moyen pour les chatGPT de s’approprier gratuitement données et contenus


En l’état en l’état les versions de ChatGPT constituent essentiellement un moyen énorme de s’approprier gratuitement les données et les contenus produits par d’autres sur les sites. Une forme de détournement gigantesque de valeurs. Dans la réalité pour l’instant cette technologie restitue seulement les informations publiées partout et encore avec beaucoup de d’approximations.

« Il n’entre pas dans nos missions de servir gratuitement de nourriture aux algorithmes. En indexant des sites dont les informations ont un réel coût de production, les bots se créent de la valeur pour eux-mêmes à coût nul », dénonce ainsi dans Les Echos Laurent Frisch, le directeur du numérique et de la stratégie d’innovation de Radio France. La radio publique fait partie d’un ensemble d’éditeurs de médias français -où on retrouve notamment Mediapart, France Médias Monde (RFI, France24…), TF1 ou encore Publihebdos (actu.fr)- a avoir pris la décision technique et symbolique de bannir le bot d’OpenAI.

Leur objectif : trouver un accord financier avec les acteurs de l’IA, afin de rémunérer l’utilisation des articles dans l’entraînement des IA. « C’est la question du partage de la valeur dans l’univers numérique qui se joue », rappelle Pierre Pérot, avocat spécialiste du droit de la propriété intellectuelle et du droit d’auteur au cabinet August Debouzy. Avec d’un côté, un secteur des médias à l’équilibre financier instable, et de l’autre, les géants du Net, qui semblent avoir trouvé dans l’IA une mine d’or.

Lire aussi

ChatGPT : Une mutation du rapport au monde ?

ChatGPT : Une mutation du rapport au monde

Le 30 novembre 2022, la société Open AI lançait ChatGPT déclenchant un foisonnement de débats et de questionnements. Le rapport à la « réalité » qu’entretient notre société explique en partie l’émergence et le succès d’intelligence artificielle comme ChatGPT. À la fin des années 70, l’économiste Harry Braverman soulignait déjà que l’informatique contribuait à accentuer la distance entre la main et l’esprit signant la disparition progressive de gestes et de savoirs traditionnels comme de certains métiers manuels. L’informatique, nous le comprenions déjà, allait transformer notre rapport à la réalité, telle une membrane ou une interface qui s’interpose entre nous et le monde pour nous dire ce qui compte et ce qui vaut. Ce que nous ne savions pas à l’époque, c’est que ces membranes ou interfaces, autrefois maîtrisables et intelligibles dans des programmes qu’on parvenait encore à expliquer et à discuter, allaient devenir de plus en plus intelligentes et obscures. Avec les systèmes d’IA, comme celui qui supporte ChatGPT, la membrane perd en contrôle.

par Claire Lobet-Maris
Professeure senior sociologie du digital et créativité, Université de Namur dans « The Conversation »

La sociologue Madeleine Akrich propose de considérer la technologie comme un acteur à qui on décide de déléguer des tâches. Ce terme de délégation est intéressant car que déléguons-nous à ChatGPT ? On lui confie la tâche de répondre à nos questions en fouillant des milliards de données pour trouver la « bonne information ». En ce sens, ChatGPT ne fait qu’un pas de plus dans les délégations que nous avons déjà confiées aux machines.

Mais peut-être est-ce un pas de trop car en utilisant la métaphore du délégué pour penser ChatGPT, ce que nous acceptons, c’est de confier la recherche d’information – et partant, notre rapport au monde – à un délégué dont on ne sait ni ce qu’il interroge, ni comment il fonctionne. C’est comme si on acceptait de confier son sort à un parfait inconnu dont on ne sait rien. Il y a là l’installation progressive d’un régime de vraisemblance où la distinction entre matérialité des faits et fabrication des faits par l’algorithme s’obscurcit, nous amenant dans un monde où plus rien ni personne ne peut être sûr.

En effet, l’incertitude liée à l’inflation informationnelle que nous connaissons depuis des décennies avait déjà tissé le lit de ce régime de post-vérité fait de fake news et de grands complots. Ce rapport troublé à la vérité des faits est ce qui permet évidemment toutes les manipulations, puisque ces textes produits sans discernement ne se heurtent plus ni à la consistance du réel que la philosophe Hannah Arendt qualifiait de « matérialité factuelle », ni à l’âpreté du débat.

Avec des outils comme ChatGPT, nous ne sommes plus qu’« au bord du monde », comme le dirait l’urbaniste et essayiste Paul Virilio, à sa toute dernière extrémité. La réalité n’est plus qu’un reste, un résidu…

Ce régime de vraisemblance est d’autant plus critique qu’il nous prend individuellement. De fait, le deuxième rôle que nous confions à ce « délégué » est de répondre à « nos » questions en « tenant compte » de nos réactions et avis, nous enfermant progressivement, par ce système d’apprentissage, dans une boucle de renforcement. À titre d’exemple, en suggérant dans la conversation avec ChatGPT que vous adorez les romans de Louis-Ferdinand Céline ou que vous les détestez, vous aurez deux appréciations totalement différentes de l’écrivain.

Ici aussi ce qui permet à ChatGPT d’exister et de se loger dans les différents plis de la société, c’est qu’il s’inscrit dans un terreau social bien présent que Paul Virilio nomme « l’individualisme de masse ». Par ce terme, il désigne la capacité des médias informatiques avancés « à traiter tête par tête nos mentalités ». En fait, nous dit-il, toutes ces technologies ne font qu’ouvrir la voie à la « télécommande universelle », une métaphore qui permet de penser ces applications qui ne laisseront plus à l’individu « de temps perdu, autrement dit de temps libre pour la réflexion, l’introspection prolongée ».

« L’individualisme de masse » permet à ChatGPT d’exister et de se loger dans les différents plis de la société
« L’individualisme de masse » permet à ChatGPT d’exister et de se loger dans les udifférents plis de la société. Pexels, CC BY-NC
La vitesse à laquelle opère ChatGPT contribue, pour reprendre ses termes, à « une sorte d’illusion stroboscopique qui brouille toute perception et donc toute véritable connaissance ». Notre esprit y était déjà bien préparé « habitué au zapping […] à l’association sauvage de sa navigation sur Internet […] il se contente de glaner çà et là des informations par butinage des lambeaux figés de sens ». Ceci pose la question de comment peut se faire et avancer une société dans un tel individualisme volatile et pointilliste.

Ce nouveau délégué qu’est ChatGPT est très symbolique de ce régime socio-économique que le philosophe André Gorz a qualifié de capitalisme cognitif. Dans ce régime, comme le résument bien les philosophes italiens Toni Negri et Carlo Vercellone « l’enjeu central de la valorisation du capital porte directement […] sur la transformation de la connaissance en une marchandise fictive ».

Rappelons que pour l’économiste Karl Polanyi, une marchandise répond à deux critères : être produit (critère de production) pour la vente (critère de validation). Ces connaissances ne sont pas des marchandises, elles font partie du commun et c’est le propre du capitalisme cognitif de privatiser à la fois leur accès et leur exploitation.

Ce régime considère la connaissance comme un stock regorgeant de données qu’il s’agit de fouiller et d’exploiter, enfermant progressivement la connaissance dans une boucle où plus rien ne se crée et où tout devient exploitation et gestion. À l’instar d’autres systèmes industriels ayant exploité la terre et la nature jusqu’à l’épuiser, des systèmes comme ChatGPT peuvent également participer à un appauvrissement de notre culture, transformant par bouclage et renforcement ce bien commun qu’est la connaissance en un vaste fournisseur d’inepties et inerties.

Au-delà de l’épuisement de la connaissance et de la culture, ces outils d’IA recèlent en eux un risque de perte généralisée de notre rapport au réel. Ainsi, nous dit Paul Virilio, « après l’accident de la substance, nous inaugurons avec le siècle qui vient un accident sans pareil, accident du réel », véritable « dé-réalisation, conduisant adultes et adolescents vers un monde parallèle sans consistance, où chacun s’accoutume peu à peu à habiter l’accident d’un continuum audiovisuel indépendant de l’espace réel de sa vie ».

Cet accident est tout en abîme puisqu’il s’agit à la fois de perdre pied par rapport à la matérialité des faits mais aussi de ne plus pouvoir reprendre pied du fait du caractère autonome et dès lors peu contrôlable de ces technologies dites intelligentes.

En 1960, dans « L’œil et l’esprit », le philosophe Maurice Merleau Ponty écrivait « La science manipule les choses et renonce à les habiter. Elle […] ne se confronte que de loin en loin avec le monde actuel. »

Face à ChatGPT, on lirait certainement chez Paul Virilio, comme chez André Gorz, une même invitation à retrouver la voie sensible du savoir, à renouer avec l’expérience touchante du monde vécu. Savoir et comprendre nous rappellent ces auteurs n’est pas connaître. Savoir et comprendre nécessitent de se confronter au monde, de le toucher, de le sentir, de l’appréhender autrement que dans la platitude des écrans. Là, nous dit Paul Virilio, le sens du réel et de sa finitude se perd et toutes les vérités deviennent possibles.

Au-delà de l’épuisement de la connaissance et de la culture, ces outils d’IA recèlent en eux un risque de perte généralisée de notre rapport au réel. Pexels, CC BY-NC
L’ère industrielle nous a conduit au réchauffement climatique. L’ère artificielle pourrait nous conduire à un réchauffement des esprits, une perte généralisée du « sens de l’orientation » où notre rapport au monde, aux autres et à nous-mêmes deviendrait incontrôlable. Il est évident, nous dit Paul Virilio, que cette perte d’orientation inaugure une crise profonde qui affectera nos démocraties.

Face à ce défi majeur, le concept d’écologie grise de Paul Virilio est une invitation à politiser ce qui arrive au « réel », à notre culture, c’est-à-dire à notre rapport au monde, tout comme l’écologie verte l’a fait depuis bien longtemps avec la nature.

L’écologie grise nous invite à reprendre fermement et sérieusement la main démocratique sur le développement de ces technologies. Sans cette fermeté, souligne Paul Virilio en reprenant Hannah Arendt : « Il se pourrait que nous ne soyons plus jamais capables de comprendre, c’est-à-dire de penser et d’exprimer les choses que nous sommes cependant capables de faire. »

ChatGPT: fantasmes et réalités ?

ChatGPT: fantasmes et réalités ?

Cette intelligence artificielle générative, capable de répondre par des textes complexes aux requêtes lancées par des internautes ? La sortie en décembre 2022 de ce logiciel conçu par la société OpenAI a suscité une multitude d’articles, entre visions de catastrophe et utopie, produisant une panique médiatique, comme l’illustre la lettre ouverte de mars 2023 demandant un moratoire dans le développement de ce type de systèmes, signée par un millier de chercheurs.

par Divina Frau-Meigs
Professeur des sciences de l’information et de la communication, dans The Conversation France

Comme le montre une étude de la Columbia Journalism Review, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.

Comme toute panique médiatique (les plus récentes étant celles sur la réalité virtuelle et le métavers), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

En parallèle des actions politiques de régulation, l’EMI permet aux citoyens de se prémunir des risques liés à l’usage de ces outils, en développant leur esprit critique et en adoptant des stratégies d’usages appropriées et responsables. L’algo-littératie, ce sous-champ de l’EMI qui considère ce que les data font aux médias, permet d’appliquer ces clés de lecture à l’IA. Voici quatre directions dans lesquelles l’EMI peut nous aider à nous retrouver dans ces chaînes d’interactions algorithmiques, de leurs productions à leurs publics.

Tenir compte de la géopolitique de l’IA
Ce sont les entreprises contrôlant les moteurs de recherche et donc l’accès à l’information, Google et Microsoft, qui ont le plus à gagner dans le développement des IA génératives. Elles s’organisent, à l’américaine, en duopole, avec un (faux) challenger, OpenAI LP. Il s’agit en fait du bras commercial du laboratoire initialement à but non lucratif OpenAI (financé par Microsoft en grande partie).

Une autre histoire peut être racontée, surtout par les médias, celle de l’incroyable concentration de pouvoir et d’argent par un très petit nombre d’entreprises de la Silicon Valley. Elles se donnent le monopole de l’accès à l’information et de toutes les productions en découlant. Elles alimentent la concurrence frontale entre États-Unis et Chine sur le sujet. La stratégie de Google et Microsoft a en effet pour but de couper l’herbe sous les pieds du gouvernement chinois, qui ne cache pas ses ambitions en matière de développement de l’IA.

L’option d’une pause ou d’un moratoire relève de la chimère, face à ce qui est l’équivalent d’une course aux armements. Les inventeurs eux-mêmes, en apprentis sorciers repentis, dont Sam Altman le directeur général de OpenAI, ont proposé en mai 2023 « une gouvernance de l’IA ». Mais ne serait-ce pas dans l’espoir de ne pas subir de plein fouet une réglementation gouvernementale qui leur échapperait et mettrait un frein à leurs intentions commerciales ? L’Union européenne a anticipé en préparant un règlement IA pour réguler les usages de cette nouvelle évolution du numérique.

Tout ce qui est plausible n’est pas nécessairement porteur de sens. L’IA qui pilote le logiciel ChatGPT fait des propositions sur la base de requêtes et elles apparaissent rapidement… dans un langage plutôt stylé et de bonne tenue ! Mais cela peut générer des erreurs, comme l’a compris, à son grand dam, un avocat de New York qui avait monté un dossier truffé de faux avis judiciaires et de fausses citations juridiques.

Il faut donc se méfier de la pseudo-science générée par l’IA. Les contenus proposés peuvent présenter des biais car ils sont issus de l’exploitation d’énormes banques de données. Celles-ci incluent des ensembles de data avec des sources de toutes sortes… dont les médias sociaux ! La dernière version gratuite de ChatGPT s’appuie sur des données qui s’arrêtent à début 2022, donc pas vraiment au point sur l’actualité.

Ces banques de données sont pour beaucoup issues des pays anglophones, avec les biais algorithmiques attenants. De fait ChatGPT risque de créer de la désinformation et de se prêter à des usages malveillants ou d’amplifier les croyances de ceux qui l’utilisent.

Hologramme numérique du cerveau avec l’IA, icônes du chat et enfant prenant des notes
Si l’IA produit des textes qui peuvent sembler bien écrits, cela ne garantit en rien la validité des informations transmises. Shutterstock
Il est donc à utiliser comme tout autre instrument, comme un dictionnaire auprès duquel faire une recherche, élaborer un brouillon… sans lui confier de secrets et de données personnelles. Lui demander de produire ses sources est une bonne consigne, mais même cela ne garantit pas l’absence de filtres, le robot conversationnel ayant tendance à produire une liste de sources qui ressemblent à des citations mais ne sont pas toutes de vraies références.

Par ailleurs, il ne faut pas oublier les problèmes de droits d’auteur qui ne vont pas tarder à rentrer en action.

Se méfier des imaginaires autour de l’IA
Le terme d’intelligence artificielle n’est pas approprié pour ce qui relève d’un traitement de données préentrainé (le sens de l’acronyme GPT pour generative pre-trained transformer).

Cet anthropomorphisme, qui nous mène à attribuer de la pensée, de la créativité et des sentiments à un agent non humain, est négatif à double titre. Il nous rappelle tous les mythes anxiogènes qui alertent sur la non-viabilité de toute porosité entre le vivant et le non-vivant, du Golem à Frankenstein, avec des peurs d’extinction de la race humaine. Il dessert la compréhension sereine de l’utilité réelle de ces transformateurs à grande échelle. La science-fiction ne permet pas de comprendre la science. Et donc de formuler des repères éthiques, économiques, politiques.

Ces imaginaires, pour actifs qu’ils soient, doivent être démystifiés. Ladite « boite noire » de l’IA générative est plutôt simple dans son principe. Les modèles de langage à grande échelle sont des algorithmes entraînés à reproduire les codes du langage écrit (ou visuel). Ils parcourent des milliers de textes sur Internet et convertissent une entrée (une séquence de lettres par exemple) en une sortie (sa prédiction pour la lettre suivante).

Ce que l’algorithme génère, à très grande vitesse, c’est une série de probabilités, ce que vous pouvez vérifier en refaisant la même requête et en voyant que vos résultats ne sont pas les mêmes. Aucune magie là-dedans, aucune sensibilité non plus, même si l’usager a le sentiment de tenir une « conversation », encore un mot du vocabulaire de l’humain.

Vue sur l’écran d’un smartphone et sur la page ChatGPT sur fond flou
La « boite noire » de l’IA générative fonctionne sur des principes plutôt simples. Shutterstock
Et cela peut être amusant, comme le montre l’IA BabyGPT créé par le New York Times, travaillant sur de petits corpus fermés, pour montrer comment écrire à la manière de Jane Austen, de William Shakespeare ou de J.K. Rowling. Même ChatGPT ne s’y laisse pas prendre : quand on lui demande ce qu’il ressent, il répond, très cash, qu’il n’est pas programmé pour cela.

Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :

prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;

exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;

demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec GPTZero ;

entamer des poursuites judiciaires, en cas d’« hallucination » de ChatGPT- – encore un terme anthropomorphisé pour marquer une erreur du système !

Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.

Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.

Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.

IA-ChatGPT: danger majeur pour l’humanité ?

IA-ChatGPT: danger majeur pour l’humanité ?


Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

ChatGPT: danger majeur pour l’humanité ?

ChatGPT: danger majeur pour l’humanité ?

Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Nouvelles technologies–ChatGPT : disponible en France

Nouvelles technologies–ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT : disponible en France

ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

 ChatGPT: une intelligence affabulatrice ?

 ChatGPT: une intelligence affabulatrice ?

Jean-Baptiste Fressoz, CNRS ,dans le Monde


L’intelligence artificielle peut-elle aider les chercheurs ? Non pas pour écrire des articles et formuler des arguments originaux – ChatGPT propose en général des réponses d’une banalité affligeante – mais au moins pour accomplir des recherches bibliographiques ? C’est dans cet esprit et sans a priori que j’ai questionné ChatGPT sur un point précis : l’évolution historique du nombre des maisons en bambou. Pourquoi cette curieuse question ? Parce que j’ai le sentiment que la diminution de l’intensité carbone de l’économie – il faut en 2020 presque deux fois moins de CO₂ pour générer un dollar de PIB mondial qu’en 1980, selon l’Agence internationale de l’énergie (« Global Energy Review : CO2 Emissions in 2021 », 2022) – cache le fait que les énergies fossiles se sont en réalité insinuées de plus en plus profondément dans la production matérielle.

L’agriculture a accru sa dépendance au pétrole et au méthane avec les progrès de la mécanisation et l’usage croissant d’engrais azotés ; la métallurgie devient plus gourmande en énergie avec la baisse de la teneur des minerais ; l’extension des chaînes de valeur accroît les kilomètres parcourus par chaque marchandise ou composant de marchandise, et donc le rôle du pétrole dans la bonne marche de l’économie. Ces phénomènes ont pour l’instant été masqués par l’efficacité croissante des machines et par le poids des services dans le produit national brut, mais ils n’en sont pas moins des obstacles majeurs sur le chemin de la décarbonation.

Les matériaux de construction fournissent un autre exemple : l’aluminium est plus intense en CO₂ que l’acier, le polyuréthane que la laine de verre, les panneaux de bois que les planches. Enfin, dans les pays pauvres, le béton remplace souvent des matériaux décarbonés comme la terre crue et… le bambou.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol