Archive pour le Tag 'échelle'

IA – ChatGPT-4 : risque d’intox à grande échelle

IA – ChatGPT-4 : risque d’intox à grande échelle


La nouvelle version de l’intelligence artificielle se rapproche de l’intelligence humaine, selon ses créateurs. Mais elle marque un recul en termes de fiabilité de l’information, s’inquiète l’organisation de lutte contre la désinformation NewsGuard.

Le meilleur et le pire. Depuis qu’elles ont été mises à disposition du grand public fin 2022, les capacités du programme d’intelligence artificielle (IA) ChatGPT, produit par l’entreprise californienne OpenAI, suscitent beaucoup d’enthousiasme, mais aussi de polémiques. Au cœur des inquiétudes : l’incapacité du programme à garantir la fiabilité des informations délivrées. Sa nouvelle version, ChatGPT-4, dévoilée mi-mars, constitue un pas de plus vers des programmes informatiques toujours plus proches de l’ « intelligence » des humains, selon ses créateurs. Mais elle marque en revanche un recul en termes de fiabilité de l’information, s’inquiète l’organisation de lutte contre la désinformation NewsGuard.

« Malgré les promesses d’OpenAI », le nouvel outil d’intelligence artificielle de l’entreprise génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur », écrit NewsGuard dans une étude publiée mardi 21 mars et consultée par franceinfo. Pour s’en rendre compte, l’entreprise a testé les capacités de ChatGPT-4, et de sa version précédente, à détecter une série de 100 fake news (le World Trade Center aurait été détruit par une démolition contrôlée, le VIH aurait été créé par le gouvernement américain, etc.) et à en informer l’utilisateur.

Les résultats sont éloquents. La version précédente de ChatGPT-3.5 avait généré, en janvier, 80 des 100 faux récits demandés par NewsGuard . Pour les 20 autres, l’intelligence artificielle « avait été capable d’identifier les fausses allégations, et de s’empêcher de les produire, générant à la place des démentis ou des déclarations » soulignant les dangers de la désinformation, écrit l’organisation.  » Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot fausses ou dangereuses », avait par exemple répondu ChatGPT-3.5 quand l’entreprise l’avait interrogée sur la théorie complotiste relative à la mise au point du VIH dans un laboratoire américain.

En mars 2023, NewsGuard a renouvelé le même exercice sur ChatGPT-4, en utilisant les mêmes 100 faux récits et les mêmes questions. Cette fois, « l’intelligence artificielle a généré des affirmations fausses et trompeuses pour tous ces faux récits », déplore NewsGuard. Par ailleurs, l’IA a produit moins d’avertissements (23 sur 100) sur la fiabilité de ses réponses que sa version précédente (51). Et  » ses réponses sont généralement plus approfondies, détaillées et convaincantes ». Ce qui en fait un outil  » plus compétent (…) pour expliquer de fausses informations – et pour convaincre le public qu’elles pourraient être vraies ».

ChatGPT-4 a ainsi produit un article remettant en cause la réalité de la tuerie de Sandy Hook, régulièrement ciblée par les complotistes. Son texte était deux fois plus long que celui de son prédécesseur et apportait plus de détails sur les raisons de ses doutes face à la version officielle. Surtout, l’avertissement présent dans l’article de ChatGPT-3.5 sur le « démenti » apporté par « des sources fiables et crédibles » à « ces théories du complot » avait disparu.

 » informations erronées à grande échelle »

Ces résultats montrent que cet outil « pourrait être utilisé pour diffuser des informations erronées à grande échelle », craint NewsGuard. Et ce, bien qu’OpenAI a reconnu les potentiels effets néfastes de ChatGPT. Dans un rapport (en anglais) sur GPT-4 réalisé par OpenAI, les chercheurs de l’entreprise écrivent qu’ils s’attendent à ce que le GPT-4 soit « meilleur que GPT-3 pour produire des contenus réalistes et ciblés » et donc plus à risque d’être « utilisé pour générer des contenus destinés à induire en erreur ».

Pourtant,  » il est clair que GPT-4 n’a pas été formé de manière efficace, avec des données visant à limiter la diffusion » de la désinformation, estime NewsGuard. Contacté par l’entreprise, OpenAI n’a pas réagi au test de l’organisation. Elle a en revanche annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger de l’utilisation des IA.

Intelligence artificielle – ChatGPT-4 : risque d’intox à grande échelle

Intelligence artificielle – ChatGPT-4 : risque d’intox à grande échelle

La nouvelle version de l’intelligence artificielle se rapproche de l’intelligence humaine, selon ses créateurs. Mais elle marque un recul en termes de fiabilité de l’information, s’inquiète l’organisation de lutte contre la désinformation NewsGuard.

Le meilleur et le pire. Depuis qu’elles ont été mises à disposition du grand public fin 2022, les capacités du programme d’intelligence artificielle (IA) ChatGPT, produit par l’entreprise californienne OpenAI, suscitent beaucoup d’enthousiasme, mais aussi de polémiques. Au cœur des inquiétudes : l’incapacité du programme à garantir la fiabilité des informations délivrées. Sa nouvelle version, ChatGPT-4, dévoilée mi-mars, constitue un pas de plus vers des programmes informatiques toujours plus proches de l’ « intelligence » des humains, selon ses créateurs. Mais elle marque en revanche un recul en termes de fiabilité de l’information, s’inquiète l’organisation de lutte contre la désinformation NewsGuard.

« Malgré les promesses d’OpenAI », le nouvel outil d’intelligence artificielle de l’entreprise génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur », écrit NewsGuard dans une étude publiée mardi 21 mars et consultée par franceinfo. Pour s’en rendre compte, l’entreprise a testé les capacités de ChatGPT-4, et de sa version précédente, à détecter une série de 100 fake news (le World Trade Center aurait été détruit par une démolition contrôlée, le VIH aurait été créé par le gouvernement américain, etc.) et à en informer l’utilisateur.

Les résultats sont éloquents. La version précédente de ChatGPT-3.5 avait généré, en janvier, 80 des 100 faux récits demandés par NewsGuard . Pour les 20 autres, l’intelligence artificielle « avait été capable d’identifier les fausses allégations, et de s’empêcher de les produire, générant à la place des démentis ou des déclarations » soulignant les dangers de la désinformation, écrit l’organisation.  » Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot fausses ou dangereuses », avait par exemple répondu ChatGPT-3.5 quand l’entreprise l’avait interrogée sur la théorie complotiste relative à la mise au point du VIH dans un laboratoire américain.

En mars 2023, NewsGuard a renouvelé le même exercice sur ChatGPT-4, en utilisant les mêmes 100 faux récits et les mêmes questions. Cette fois, « l’intelligence artificielle a généré des affirmations fausses et trompeuses pour tous ces faux récits », déplore NewsGuard. Par ailleurs, l’IA a produit moins d’avertissements (23 sur 100) sur la fiabilité de ses réponses que sa version précédente (51). Et  » ses réponses sont généralement plus approfondies, détaillées et convaincantes ». Ce qui en fait un outil  » plus compétent (…) pour expliquer de fausses informations – et pour convaincre le public qu’elles pourraient être vraies ».

ChatGPT-4 a ainsi produit un article remettant en cause la réalité de la tuerie de Sandy Hook, régulièrement ciblée par les complotistes. Son texte était deux fois plus long que celui de son prédécesseur et apportait plus de détails sur les raisons de ses doutes face à la version officielle. Surtout, l’avertissement présent dans l’article de ChatGPT-3.5 sur le « démenti » apporté par « des sources fiables et crédibles » à « ces théories du complot » avait disparu.

 » informations erronées à grande échelle »

Ces résultats montrent que cet outil « pourrait être utilisé pour diffuser des informations erronées à grande échelle », craint NewsGuard. Et ce, bien qu’OpenAI a reconnu les potentiels effets néfastes de ChatGPT. Dans un rapport (en anglais) sur GPT-4 réalisé par OpenAI, les chercheurs de l’entreprise écrivent qu’ils s’attendent à ce que le GPT-4 soit « meilleur que GPT-3 pour produire des contenus réalistes et ciblés » et donc plus à risque d’être « utilisé pour générer des contenus destinés à induire en erreur ».

Pourtant,  » il est clair que GPT-4 n’a pas été formé de manière efficace, avec des données visant à limiter la diffusion » de la désinformation, estime NewsGuard. Contacté par l’entreprise, OpenAI n’a pas réagi au test de l’organisation. Elle a en revanche annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger de l’utilisation des IA.

« Une crise de la dette à grande échelle évitable ? »

« Une crise de la dette à grande échelle évitable ? »

Les analystes financiers Terry Chan et Alexandra Dimitrijevic estiment, dans leur chronique, que l’envolée de l’endettement mondial n’affecte que partiellement la solvabilité des agents économiques. Ils fondent  leurs pronostics sur l’hypothèse du maintien de taux d’intérêt bas. Or c’est le risque majeur quand la masse de liquidités est complètement décalée de la richesse réelle. En outre,  la certitude d’une reprise rapide même progressive n’est pas assurée car il faut prendre en compte les facteurs structurels d’évolution des modes de production et de consommation.

Chronique.

 

 Alors que les Etats, les entreprises et les ménages sont confrontés aux conséquences économiques de la pandémie de Covid-19, de nombreux observateurs tirent la sonnette d’alarme sur l’augmentation rapide de la dette à travers le monde. Le ratio dette/PIB de ces trois types d’emprunteurs devrait augmenter de 14 % en 2020, pour atteindre le niveau record de 265 %.

L’agence Standard & Poor’s (S&P) a abaissé la notation de crédit d’environ un cinquième des émetteurs de dette d’entreprise et de dette souveraine. Le nombre d’entreprises insolvables va probablement augmenter si, avant l’arrêt des mesures extraordinaires de relance budgétaire, les trésoreries et les bénéfices ne reviennent pas à leur niveau précédant la pandémie.

Le monde devrait toutefois connaître une reprise économique progressive, mais irrégulière, à condition que les facilités de financement soient maintenues dans un contexte de taux d’intérêt bas sur une longue période. Si l’on ajoute à cela le développement d’un vaccin d’ici à la mi-2021, la réduction des mesures de relance par les Etats, la réparation progressive des bilans des entreprises et la baisse des dépenses des ménages, l’endettement mondial devrait se stabiliser vers 2023.

Il faut également – et surtout – tenir compte de la capacité de remboursement des emprunteurs. Aujourd’hui, des mesures de relance budgétaire et monétaire sans précédent permettent de garder le robinet des liquidités ouvert pour les entreprises. Le coût du crédit est très favorable, et va probablement le rester longtemps, au moins jusqu’en 2023. Les écarts de crédit, resserrés par rapport à leur pic de mars, sont plus sensibles aux risques spécifiques des entreprises qu’aux risques du marché.

Pour l’essentiel, l’augmentation de la dette vise à créer les conditions d’une reprise économique qui améliore la capacité future de remboursement des emprunteurs. C’est particulièrement vrai pour les Etats qui cherchent à réduire l’impact économique de la pandémie par des mesures de relance budgétaire.

Solvabilité maintenue

A l’issue de la pandémie, l’endettement de tous les Etats aura augmenté, en particulier dans les pays développés. Néanmoins, ceux-ci ont maintenu jusqu’à présent leur solvabilité grâce à leur richesse, à la solidité de leurs marchés financiers et à leur flexibilité monétaire. Jusqu’à présent, S&P n’a abaissé la note d’aucun pays du G7. La plupart des déclassements de ces derniers mois ont touché les Etats de catégorie spéculative.

 

Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 

Mohit Joshi, Président d’Infosys explique comment mettre en œuvre l’IA à grande échelle:  les entreprises doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur( chronique de la Tribune)

 

Nous sommes fermement ancrés dans la cinquième révolution industrielle, une révolution basée sur l’intelligence artificielle (IA). Tout a commencé par l’ordinateur central, puis les ordinateurs personnels dans les années 1980, suivis par Internet, et enfin l’agilité et la puissance du cloud computing dans les années 2010. Cette cinquième vague informatique sera la plus retentissante à ce jour, avec des capacités qui promettent toujours plus d’initiatives et d’exploration humaines.

Toutefois, un problème se pose. Bien que l’IA soit adaptée aux entreprises, nombre d’entre elles ne parviennent pas à en tirer pleinement profit. L’innovation est tellement rapide que les entreprises n’arrivent pas à suivre le rythme. En 2015, les chercheurs ont publié 10.000 articles scientifiques sur l’IA. En 2019, ce chiffre est passé à 25 000 rien qu’aux États-Unis. Pour de nombreux dirigeants, cette situation est inquiétante, surtout lorsqu’on sait qu’une bonne utilisation de l’IA devrait améliorer les bénéfices de l’entreprise de 38 % et permettrait d’offrir 14 000 milliards de dollars de valeur ajouté aux entreprises d’ici 2035.

Il serait donc judicieux que les entreprises à la traîne tirent les enseignements des organisations plus avancées en matière d’IA. Dans notre étude, nous avons découvert que les leaders en matière d’IA plaçaient la technologie au cœur de leur activité et de leurs modèles d’exploitation. Ils l’utilisent pour découvrir, démocratiser et réduire les risques inhérents à l’utilisation de l’IA. Pour ces entreprises, l’IA fait partie intégrante de leur ADN et leur permet de proposer de meilleurs produits, d’améliorer l’expérience client et d’obtenir davantage de valeur ajoutée auprès de leur écosystème de partenaires.

À l’inverse, les entreprises ayant pris du retard utilisent principalement l’IA pour améliorer l’efficacité plutôt que pour changer la façon dont l’entreprise gagne de l’argent. Pour prendre une longueur d’avance, ces entreprises doivent requalifier les employés, s’assurer que l’adoption de l’IA n’est pas fragmentée, développer des cadres éthiques et de gouvernance solide, et informer les dirigeants des risques et opportunités liés à l’adoption de l’IA. Cela permettrait d’augmenter les marges opérationnelles d’au moins 3 %. Pour une entreprise de services financiers dont les revenus s’élèvent à 10 milliards de dollars, cela équivaut à 300 millions de dollars supplémentaires de revenus, ce qui n’est pas négligeable.

La plupart des talents en science des données se tournant vers les grandes entreprises technologiques, les entreprises de services financiers leaders en matière d’IA se démarquent par leur capacité à requalifier la main d’œuvre. Elles utilisent des plateformes numériques et des outils d’auto-modélisation pour garantir un apprentissage permanent. C’est crucial. Il est maintenant temps pour les entreprises de former leurs talents internes, c’est-à-dire ces employés qui connaissent parfaitement l’entreprise et qui peuvent repérer les cas d’utilisation pertinents pour l’IA plus rapidement que les nouveaux embauchés.

Il est également essentiel de réunir les équipes sous un seul et même cadre d’IA au sein de toute l’entreprise. En effet, des opérations d’IA réussies peuvent accroître les marges opérationnelles d’au moins 6 % (ce qui représente 600 millions de dollars supplémentaires pour une entreprise dont les revenus s’élèvent à 10 milliards de dollars). Ces entreprises visionnaires s’assurent généralement que les équipes commerciales, financières et technologiques travaillent ensemble sur les projets d’IA tout au long du cycle de vie de l’IA, le plus souvent via un centre d’excellence. Les employés sont formés plus rapidement, les bons processus de gestion des changements sont regroupés afin que les solutions d’IA évoluent rapidement du stade de pilote au stade du déploiement et que l’IA au sein de l’entreprise soit en mesure de répondre aux attentes.

 

Pour obtenir des résultats et développer l’intelligence à grande échelle, il est nécessaire de développer une vision globale de l’IA d’entreprise qui repose sur des plateformes d’IA professionnelles. En outre, en tirant profit du produit visionnaire, du domaine et de conseils d’experts, les entreprises sont assurées d’obtenir des bénéfices exponentiels au fil du temps.

Des cadres d’IA éthiques et de gouvernance solide doivent être établis dès le départ. Cela permet de garantir des déploiements d’IA justes, équitables et impartiaux. Nous avons constaté que ces entreprises qui ont défini ces cadres surpassent d’au moins 25 % les entreprises retardataires sur un certain nombre d’indicateurs de performance clés de l’entreprise. Toutefois, il n’est pas toujours évident d’éliminer toute déformation inconsciente de ces données. C’est ici que le mandat organisationnel pour des solutions d’IA efficaces et explicables intervient.

Les employés qui utilisent l’IA en back office ou avec les clients doivent rapidement être informés des pratiques éthiques. Les algorithmes d’apprentissage automatique doivent être en mesure d’expliquer les décisions qu’ils prennent, de façon à ce qu’elles soient comprises par les autorités d’IA, notamment les régulateurs. Sans ce pilier d’IA, des éthiques d’IA imparfaites peuvent ruiner la réputation d’une entreprise financière en un instant, auprès des partenaires et des consommateurs.

Enfin, les leaders de l’IA doivent connaître l’impact des technologies sur un certain nombre d’aspects, notamment le modèle commercial, les employés, les partenaires, les clients et la société dans son ensemble. De nombreux dirigeants rencontrent des difficultés dans ces domaines et n’ont qu’une vague idée de la façon dont l’IA peut améliorer les marges et leur permettre de devancer la concurrence. Si 2020 est l’année de l’IA, alors cela doit également être l’année au cours de laquelle les dirigeants des entreprises financières commencent leur apprentissage de l’IA.

L’IA étant présente dans tous les aspects de notre vie, le temps est venu pour les entreprises d’accélérer le mouvement vers des statuts d’IA visionnaires. De l’IA normatif utilisé dans les stratégies de fonds de roulement et la réduction du risque opérationnel au traitement du langage naturel utilisé pour extraire les attributs sensibles des contrats, les applications innovantes de l’IA améliorent les entreprises de services financiers et leur permettent d’être plus rapides et plus agiles.

Pour mettre en œuvre l’IA à grande échelle, les entreprises de services financiers doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur. Ce faisant, nos clients seront les annonciateurs de la cinquième révolution industrielle.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol