Archive pour le Tag 'd’intelligence'

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

IA- peut-on vraiment employer le concept d’intelligence ?

IA- peut-on vraiment employer le concept d’intelligence ?

par Jean-Louis Dessalles, Institut Mines-Télécom (IMT) dans the Conversation

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle. N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique : Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi ! »

En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?

Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?
On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.

Jean‑Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

IA- peut employer le concept d’intelligence ?

IA- peut employer le concept d’intelligence ?

par Jean-Louis Dessalles, Institut Mines-Télécom (IMT) dans the Conversation

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle. N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique : Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi ! »

En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?

Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?
On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.

Jean‑Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

«Pas d’intelligence artificielle sans humain». (David Lacombled)

«Pas d’intelligence artificielle sans humain». (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

 

«Pas d’IA sans humain». (David Lacombled)

«Pas d’intelligence artificielle sans humain». (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol

TESTING