Archive pour le Tag 'l’intelligence'

Page 3 sur 5

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Obsolescence de l’homme avec l’intelligence artificielle ?

Obsolescence de l’homme avec l’intelligence artificielle ?

Ingénieure diplômée de l’École polytechnique, spécialiste de l’intelligence artificielle et co-autrice de « Intelligence artificielle » La nouvelle barbarie » (éditions du Rocher, 2019), Marie David fait le point dans Marianne

L’intelligence artificielle (IA) ChatGPT, capable de converser « intelligemment » et d’émettre des avis pertinents, crée beaucoup d’engouement sur Internet. Le comprenez-vous ?

Marie David :Oui, car même si les technologies utilisées pour faire tourner ChatGPT existent depuis longtemps, c’est la première fois qu’un modèle aussi performant est mis à disposition du grand public. En effet, contrairement aux modèles précédents développés par OpenAI, qui apprenaient à répliquer des motifs à partir d’un corpus donné, ChatGPT a été ré-entraîné par des techniques complémentaires dites de « réapprentissage renforcé ». Cela signifie que le modèle a été entraîné afin de pouvoir donner des réponses plus proches de celles que fournirait un être humain. En résumé, ChatGPT offre une variété très impressionnante de fonctionnalités et une vraie versatilité. On peut l’utiliser pour lui demander des informations sur de nombreux sujets, traduire un texte, rédiger des mails ou des textes simples, comprendre des lignes de code informatique ou en écrire… Les applications sont immenses.

« Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines. »

En revanche, il faut préciser que ChatGPT n’est que la suite de progrès incrémentaux [c’est-à-dire qui découlent des améliorations de l’existant – N.D.L.R.] dans ce domaine de l’IA qui est celui de l’apprentissage statistique [type de méthodes qui se fondent sur les mathématiques et les statistiques pour donner aux IA la capacité d'« apprendre » à partir de données – N.D.L.R.]. Il n’y a pas de magie, ni d’ailleurs d’intelligence derrière cette IA, qui, comme les autres modèles de deep learning, requiert des milliards d’heures de calcul et des volumes faramineux de données pour être entraînée.


Dans le même temps, Midjourney transforme les textes en dessin. L’homme risque-t-il d’être dépassé par l’IA dans la création artistique ?

Dans la création artistique, oui bien sûr, et dans de nombreux autres domaines. Plutôt que dépassé, j’utiliserai le mot « remplacé ». Aujourd’hui les IA peuvent produire des images, composer des morceaux, écrire des articles de journaux ou de blog (comme GPT-3, l’ancêtre de ChatGPT), traiter des conversations sur des scripts simples (par exemple comprendre le problème d’un consommateur et l’orienter vers un service client), voire écrire des livres, comme en publie la jeune maison d’édition Rrose édition. Une IA n’écrira jamais Ulysse (James Joyce, 1922) ni l’Homme sans qualité (Robert Musil, 1930), mais elle peut sans problème produire un texte équivalent à 90% de ce qui couvre les tables des libraires. Cela donne lieu à des réflexions fascinantes sur le rôle de la moyenne et de la régularité.

Tant que les productions humaines restent dans une certaine régularité, une IA peut sans problème les remplacer. Mais n’y a-t-il pas par essence de la moyenne, de la régularité dans toutes les productions humaines, des répétitions dans une école de peinture ? Dans les compositions d’un musicien ? Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines, ce qui pose des questions fascinantes.

« L’obsolescence de l’homme » dont parlait le philosophe Günther Anders, en 1956, est-elle toute proche ?

Je vais vous répondre d’une façon provocatrice : ce qui m’étonne c’est que finalement les IA soient si peu utilisées. Nous pourrions en réalité remettre beaucoup plus de nos décisions de la vie de tous les jours aux IA, automatiser beaucoup plus d’emplois, et leur faire produire beaucoup plus de choses (des livres, des films). Je ne dis pas que c’est souhaitable, simplement que c’est techniquement possible. Mon interprétation est que nous avons malgré tout une répugnance instinctive à nous faire remplacer par des machines, qui fait qu’au-delà de leur coût encore prohibitif et de leur complexité, nous rechignons à utiliser les IA à leurs pleines capacités.

Finalement, les grandes évolutions scientifiques mettent des dizaines voire des centaines d’années à se diffuser dans le reste d’une culture. La révolution copernicienne s’est étendue sur plus de 150 ans. Il est trop tôt pour nous pour comprendre en quoi cette technologie va profondément modifier notre façon de travailler et d’interagir avec la machine. Ce qui est le plus inquiétant, c’est l’anthropomorphisation inévitable de notre relation avec des algorithmes comme l’avait montré Shelly Turkle dans son remarquable essai Seuls ensemble (traduit par les éditions L’échappée en 2015).

Nous ne pouvons nous empêcher de prêter des sentiments humains et en tout cas d’en éprouver vis-à-vis d’un artefact (qu’il soit un robot ou comme ChatGPT un chatbot) qui simule soit des caractéristiques du vivant, soit des facultés cognitives comme celles de l’homme. Les créateurs de ChatGPT ont d’ailleurs été sensibles à ce problème puisque l’algorithme vous rappelle très régulièrement qu’il n’est qu’une IA.

L’autre développement inquiétant c’est que nous devons de plus en plus travailler au service des IA : en effet pour préparer les immenses volumes de données sur lesquelles les IA sont entraînées, il faut des petites mains pour classifier et annoter les données. Ce sont des tâches répétitives et mal payées, nécessaires cependant pour avoir des IA performantes. Un nouveau prolétariat au service des machines pourrait ainsi se développer

Politique: Un nouveau concept , « l’intelligence territoriale »

Politique: Un nouveau concept , « l’intelligence territoriale » !

Par Guillaume Guérin, Jean-Luc Moudenc, Franck Proust, Olivier Bianchi, Frédéric Augis, Alain Gest, Robert Vila, François Grosdidier, David Margueritte, Nicolas Daragon, Philippe Gamen et Jean-Pierre Gorges

Une tribune sympathique dans « l’Opinion »pour vanter les mérites de la décentralisation. Le seul problème c’est que le pouvoir est aussi concentré au plan local et même davantage qu’au plan national. La très grosse majorité des citoyens ignorent complètement ou presque les stratégies et l’action locale. La démocratie locale est l’espace réservé aux professionnels de la politique et ce ne sont pas quelques comités locaux bidon qui peuvent changer la situation. Pire avec l’empilage des structures communautés de communes et Métropole notamment le pouvoir local s’éloigne encore plus du citoyen mais les hausse de fiscalité ne cessent, elles, de se rapprocher. NDLR

Les élections législatives ont démontré la volonté de nos compatriotes de ne pas concentrer les pouvoirs à l’Elysée comme ils l’avaient fait en 2017 en réaction à un quinquennat Hollande décevant à bien des égards.

Mais les Français ne s’y sont pas trompés. Ils ne se trompent jamais (!). Après avoir pour la troisième fois voté par défaut pour fermer les portes de l’Elysée à la représentante du parti historique de Jean-Marie Le Pen, ils ont dessiné une Assemblée nationale plus représentative des diversités de l’électorat français avec dix groupes parlementaires. Alors certes, la distribution des vice-présidences et des présidences de commissions a agité le microcosme politique. Mais est-ce bien là l’essentiel ? Lorsque quatre Français sur dix seulement se sont déplacés pour élire leurs députés, combien de ceux-là s’intéressent à qui sous-présidera telle ou telle commission ? Bien peu…

Désormais, un projet de loi gouvernemental ne pourra être voté que si l’un au moins des groupes d’opposition apporte ses voix à la majorité relative du Président Macron. Le rôle du Parlement s’en trouve restauré. C’est le retour du régime parlementaire et de la culture de compromis. Dans ce contexte, le Sénat, émanation faut-il le rappeler des territoires, retrouve toute sa place dans la fabrication éclairée et raisonnée de la loi.

Mais quel est le cap du président de la République ? Quelles options de politiques publiques, pour quelles réformes ? Dans ses propres rangs, bien peu se risquent à répondre car, au fond, ils n’en savent rien. Les armées de mercenaires ont-elles jamais servi les nations ? C’est le nœud gordien d’une hypothétique coalition. Au contraire de nos amis allemands, coutumiers du fait, la question posée est une coalition « autour de qui ? » au lieu de se demander « autour de quoi ? ». Pas, ou peu, de programme et pour seule idée-force la lutte contre des extrêmes, pourtant utiles en période électorale, et une défense tous azimuts de l’élargissement européen. C’est bien, mais un peu léger.

Les difficultés quotidiennes des Français sont immenses et de toute évidence, la déconnexion du pouvoir central a résisté à l’émergence du nouveau monde. Qui parle vraiment de la France périphérique, de la France d’à côté ? L’Etat profond a porté bien des noms. Lorsque les sachant ne savent plus, faisons confiance à celles et ceux qui pratiquent au plus près les territoires.
Nous, maires et présidents d’intercommunalités, vivons et habitons nos territoires quotidiennement et affectivement. Or, la réalité est là et elle est cruelle : les prix de l’énergie explosent, l’inflation atteint des niveaux historiques et le pouvoir d’achat de nos compatriotes fond comme neige au soleil !La sobriété est un concept à la mode. Elle serait le remède à tous nos maux. Que les ministres du gouvernement viennent dans nos communes exiger d’une mère célibataire ou d’un couple de retraités qu’ils basculent dans la sobriété lorsque depuis plusieurs années déjà ils peinent à payer leurs factures ! Nous ne ferons pas cet affront à nos administrés. Nous le refusons. La sobriété, beaucoup baignent déjà dedans, non pas par choix ou par effet de mode mais parce que, structurellement, les décisions politiques passées et présentes les y contraignent.

« L’essentiel des forces vives des courants politiques auxquels nous appartenons se situe désormais en province. A ce titre, nous réclamons un leadership qui soit enfin d’extraction territoriale »
Les collectivités locales et les maires en particulier portent des actions concrètes et visibles. Les mairies répondent-elles aux besoins quotidiens de nos enfants ? Oui. Les Conseils départementaux apportent-ils assistance à nos aînés dépendants ? Oui. Les intercommunalités et les régions accompagnent-elles efficacement les entreprises dans un contexte économique incertain ? Toujours oui.
Partage. L’essentiel des forces vives des courants politiques auxquels nous appartenons se situe désormais en province. A ce titre, nous réclamons un leadership qui soit enfin d’extraction territoriale. Alors, sans tomber dans la facilité stérile qui consisterait à s’opposer aux élites parisiennes, nous appelons à ne pas fragiliser ce qui fonctionne et au contraire à assumer un partage efficace de la décision. L’hypercentralisation démontre chaque jour ses limites et la parole politique ne fait pas exception. Nos concitoyens, qui constatent l’éloignement des centres de pouvoir dans les préfectures de régions ou à Paris, voient aussi des responsables politiques hors-sol prodiguer leurs bons conseils sur les plateaux de télévision.

Il est essentiel de rompre cette spirale dont le baromètre s’appelle l’abstention et de redonner espoir avec des paroles et des actes tangibles. Aussi nous, maires et présidents de collectivités territoriales, sans ambition hégémonique aucune, revendiquons une décentralisation effective des options politiques choisies par nos décideurs. Assumons d’appartenir à des courants revendiquant l’intelligence territoriale !

Un nouveau concept politique : l’intelligence territoriale !

Un nouveau concept politique :l’intelligence territoriale !

Par Guillaume Guérin, Jean-Luc Moudenc, Franck Proust, Olivier Bianchi, Frédéric Augis, Alain Gest, Robert Vila, François Grosdidier, David Margueritte, Nicolas Daragon, Philippe Gamen et Jean-Pierre Gorges

Une tribune sympathique dans « l’Opinion »pour vanter les mérites de la décentralisation. Le seul problème c’est que le pouvoir est aussi concentré au plan local et même davantage qu’au plan national. La très grosse majorité des citoyens ignorent complètement ou presque les stratégies et l’action locale. La démocratie locale est l’espace réservé aux professionnels de la politique et ce ne sont pas quelques comités locaux bidon qui peuvent changer la situation. Pire avec l’empilage des structures communautés de communes et Métropole notamment le pouvoir local s’éloigne encore plus du citoyen NDLR

Les élections législatives ont démontré la volonté de nos compatriotes de ne pas concentrer les pouvoirs à l’Elysée comme ils l’avaient fait en 2017 en réaction à un quinquennat Hollande décevant à bien des égards.

Mais les Français ne s’y sont pas trompés. Ils ne se trompent jamais (!). Après avoir pour la troisième fois voté par défaut pour fermer les portes de l’Elysée à la représentante du parti historique de Jean-Marie Le Pen, ils ont dessiné une Assemblée nationale plus représentative des diversités de l’électorat français avec dix groupes parlementaires. Alors certes, la distribution des vice-présidences et des présidences de commissions a agité le microcosme politique. Mais est-ce bien là l’essentiel ? Lorsque quatre Français sur dix seulement se sont déplacés pour élire leurs députés, combien de ceux-là s’intéressent à qui sous-présidera telle ou telle commission ? Bien peu…

Désormais, un projet de loi gouvernemental ne pourra être voté que si l’un au moins des groupes d’opposition apporte ses voix à la majorité relative du Président Macron. Le rôle du Parlement s’en trouve restauré. C’est le retour du régime parlementaire et de la culture de compromis. Dans ce contexte, le Sénat, émanation faut-il le rappeler des territoires, retrouve toute sa place dans la fabrication éclairée et raisonnée de la loi.

Mais quel est le cap du président de la République ? Quelles options de politiques publiques, pour quelles réformes ? Dans ses propres rangs, bien peu se risquent à répondre car, au fond, ils n’en savent rien. Les armées de mercenaires ont-elles jamais servi les nations ? C’est le nœud gordien d’une hypothétique coalition. Au contraire de nos amis allemands, coutumiers du fait, la question posée est une coalition « autour de qui ? » au lieu de se demander « autour de quoi ? ». Pas, ou peu, de programme et pour seule idée-force la lutte contre des extrêmes, pourtant utiles en période électorale, et une défense tous azimuts de l’élargissement européen. C’est bien, mais un peu léger.

Les difficultés quotidiennes des Français sont immenses et de toute évidence, la déconnexion du pouvoir central a résisté à l’émergence du nouveau monde. Qui parle vraiment de la France périphérique, de la France d’à côté ? L’Etat profond a porté bien des noms. Lorsque les sachant ne savent plus, faisons confiance à celles et ceux qui pratiquent au plus près les territoires.
Nous, maires et présidents d’intercommunalités, vivons et habitons nos territoires quotidiennement et affectivement. Or, la réalité est là et elle est cruelle : les prix de l’énergie explosent, l’inflation atteint des niveaux historiques et le pouvoir d’achat de nos compatriotes fond comme neige au soleil !La sobriété est un concept à la mode. Elle serait le remède à tous nos maux. Que les ministres du gouvernement viennent dans nos communes exiger d’une mère célibataire ou d’un couple de retraités qu’ils basculent dans la sobriété lorsque depuis plusieurs années déjà ils peinent à payer leurs factures ! Nous ne ferons pas cet affront à nos administrés. Nous le refusons. La sobriété, beaucoup baignent déjà dedans, non pas par choix ou par effet de mode mais parce que, structurellement, les décisions politiques passées et présentes les y contraignent.

« L’essentiel des forces vives des courants politiques auxquels nous appartenons se situe désormais en province. A ce titre, nous réclamons un leadership qui soit enfin d’extraction territoriale »
Les collectivités locales et les maires en particulier portent des actions concrètes et visibles. Les mairies répondent-elles aux besoins quotidiens de nos enfants ? Oui. Les Conseils départementaux apportent-ils assistance à nos aînés dépendants ? Oui. Les intercommunalités et les régions accompagnent-elles efficacement les entreprises dans un contexte économique incertain ? Toujours oui.
Partage. L’essentiel des forces vives des courants politiques auxquels nous appartenons se situe désormais en province. A ce titre, nous réclamons un leadership qui soit enfin d’extraction territoriale. Alors, sans tomber dans la facilité stérile qui consisterait à s’opposer aux élites parisiennes, nous appelons à ne pas fragiliser ce qui fonctionne et au contraire à assumer un partage efficace de la décision. L’hypercentralisation démontre chaque jour ses limites et la parole politique ne fait pas exception. Nos concitoyens, qui constatent l’éloignement des centres de pouvoir dans les préfectures de régions ou à Paris, voient aussi des responsables politiques hors-sol prodiguer leurs bons conseils sur les plateaux de télévision.

Il est essentiel de rompre cette spirale dont le baromètre s’appelle l’abstention et de redonner espoir avec des paroles et des actes tangibles. Aussi nous, maires et présidents de collectivités territoriales, sans ambition hégémonique aucune, revendiquons une décentralisation effective des options politiques choisies par nos décideurs. Assumons d’appartenir à des courants revendiquant l’intelligence territoriale !

Faire entrer l’intelligence artificielle à l’école

Faire entrer l’intelligence artificielle à l’école

 

HOMO NUMERICUS. L’école du XXIe siècle doit intégrer l’intelligence artificielle dans ses enseignements. Placée au service de l’élève et du professeur cette nouvelle technologie permettra à la fois de mieux travailler tout en préparant les citoyens de demain au monde qui sera le leur. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio. ( dans la Tribune)

 

Alors qu’en France, les trousses des élèves sentent encore le neuf, ailleurs, en Chine, dans la province du Hainan, les fournitures scolaires ne sont pas exactement de la même nature. Certes, il s’agit toujours d’utiliser des stylos pour apprendre à écrire sauf que, dans certaines écoles, des stylos « intelligents » on fait leur apparition. Par « intelligents », entendons « connectés », c’est-à-dire capables de transmettre des informations personnalisées aux enseignants sur notamment le rythme d’apprentissage des enfants.

Dans son édition du 30 juillet dernier, le journal chinois Chengdu Shangabo publia une nouvelle en expliquant qu’un enseignant avait distribué ces « stylos intelligents » à ses élèves afin que ces derniers les utilisent pour faire leurs devoirs de vacances. En écrivant sur un papier spécial, la caméra du stylo peut collecter et transmettre des données vers le professeur montrant ainsi l’empressement des élèves à mettre du cœur à l’ouvrage… Cette information n’a pas manqué de faire réagir plusieurs grands médias chinois, jusqu’au journal officiel du Parti communiste en s’interrogeant sur la pertinence de ces technologies appliquées à l’enseignement afin que celles-ci ne se transforment pas en de nouvelles « paire de menottes connectées ».

 

Cet exemple qui nous vient de Chine a de quoi faire réfléchir. Poussés à l’extrême, comme ce régime politique en est coutumier, de tels dispositifs technologiques pourraient devenir d’évidents outils de contrôle. Pour autant, cet exemple dystopique ne doit pas nous faire écarter l’usage des nouvelles technologies dans les salles de classe. Dit autrement, le pire serait de jeter le bébé digital avec l’eau du bain éducatif…

Bien encadrés, les outils technologiques à des fins pédagogiques, dont ceux, de plus en plus nombreux, qui embarquent des dispositifs dopés à l’intelligence artificielle (IA), ont la capacité de faire émerger des pratiques d’enseignement et d’apprentissage innovantes, surtout dans un contexte où, post crise Covid, les lignes en matière de numérisation d’outils et de méthodes pédagogiques ont énormément bougé. Si le marché de l’EdTech (secteur d’activité qui applique les nouvelles technologies à l’apprentissage et au partage de connaissances) a gagné de précieuses années du fait de cette crise sanitaire au cours de laquelle il a fallu continuer à apprendre en n’allant pas en classe. Rien qu’en France, il existe près de 500 startups spécialisées dans l’éducation et la formation. Elles génèrent 1,3 milliard d’euros de chiffre d’affaires et emploient 10 000 salariés.

 

Qu’elle nous fascine et nous angoisse, c’est un fait, l’IA fait et fera de plus en plus partie de nos vies. Parce que le numérique est déjà omniprésent sur les façons dont nous travaillons, consommons, voyageons… en matière d’apprentissage, l’IA est et sera l’allié de l’école dès lors qu’elle se mettra au service de l’élève et des professeurs. Grâce à elle, l’automatisation des enseignements de base s’en trouve facilitée. L’IA permet ainsi de décharger les enseignants de tâches rébarbatives ou répétitives. Pour les élèves, l’IA à cette capacité de s’adapter à leurs besoins spécifiques. Citons, l’exemple d’«Adaptiv’Langue» déployée dans l’académie de Versailles. Conçue par l’EdTech «EvidenceB», cette solution fonctionne grâce à une IA qui entraine les lycéens à travailler la syntaxe, l’orthographe, le lexique, le verbe, la cohérence d’un texte et la logique. Pour l’enseignant, ce logiciel boosté à l’IA lui donne la possibilité de se concentrer sur l’essentiel : suivre le parcours de ses élèves grâce notamment à des tableaux de bord qui permettent de visualiser d’un coup d’œil la progression de tous et de chacun.

 

Dans son dernier livre*, plaidoyer pour une véritable autonomie des établissements scolaires, la philosophe et universitaire Monique Canto-Sperber, rappelle cette évidence : on éduque les enfants pour qu’ils deviennent des individus autonomes dans le monde social où ils vont vivre et travailler. Pour que ce vœu se perpétue, l’école doit, comme elle l’a toujours fait en rendant intelligible les grandes révolutions techniques, se mettre à la hauteur des enjeux de demain. En l’espèce, enseigner et éduquer à l’IA afin de donner aux futurs citoyens les clés pour comprendre et mesurer l’impact potentiel de ces nouvelles technologies sur la vie humaine. C’est tout le sens du projet « Enseigner l’intelligence artificielle à l’école » développé par l’Unesco.

Est-ce à dire qu’il faudrait, à l’instar des matières « classiques » (langues, mathématiques, histoire…) que des cours d’IA soient dispensés dans toutes les écoles ? La réponse semble évidemment « oui », ne serait-ce que pour que l’on arrive à démystifier ce qui se trouve « sous le capot » des ordinateurs. Si l’idée n’est pas de faire de tous les enfants des programmateurs ou des codeurs en puissance, il s’agit plutôt de les préparer à vivre aux-côtés de ces intelligences artificielles désormais omniprésentes. Bref, de préparer les esprits à la façon dont les enfants appréhendent le monde grâce à des établissements scolaires réactifs, capables d’adaptations tout en restant fidèles aux valeurs de l’éducation républicaine. Et tout ça avec ou sans stylos connectés…

_____

(*) « Une école qui peut mieux faire », Monique Canto-Sperber, éditions Albin Michel, septembre 2022

Société- L’intelligence sociale : clés de l’avenir ?

Société- L’intelligence sociale : clés de l’avenir ?

 

l’intelligence sociale, clé de la performance durable par Jean-François Chantaraud (L’odissé, dans la Tribune)

  • Tribune

La performance d’une organisation dépend de sa capacité à trouver et mettre en œuvre le plus vite possible les solutions les meilleures possibles à ses problèmes les plus importants. Si l’innovation est indispensable, elle ne suffit pas : elle doit s’accompagner d’une faculté collective d’appropriation des meilleures idées.

Un seul saut qualitatif est nécessaire pour fonder une entreprise, un parti politique ou encore un état. Or, celui qui n’avance pas recule : pour durer, il faut donc continuer à inventer par-delà la phase de création. Ainsi, le créateur qui ne se satisfait pas d’avoir créé et qui souhaite inscrire sa réussite dans le temps doit se réinventer encore et encore afin de toujours faire mieux.

L’innovation, facteur de perturbations

Bien sûr, trouver de nouvelles solutions à de nouveaux problèmes dépend de la capacité d’innovation. Mais innover ne consiste pas seulement à détecter et mettre au point de nouvelles idées. Car si l’on veut qu’une grande quantité d’acteurs soient en accord avec leur mise en œuvre, voire qu’ils les mettent eux-mêmes en pratique, il faut qu’ils les adoptent au point de rejeter leurs anciennes habitudes. Or, plus une innovation est innovante, plus elle bouleverse l’ordre établi. Et plus elle est perturbante, plus il est difficile de l’accepter. La performance d’une organisation dépend donc de sa capacité à impliquer ses interlocuteurs dans la définition et la mise en œuvre de ses projets.

Pour réussir à se transformer, un collectif doit donc savoir sélectionner et s’emparer des perturbations qui ont le plus de chances de l’impacter pour son bien. Et inversement, il lui faut savoir rejeter celles qui pourraient le tirer vers le bas. Sachant qu’aucune boule de cristal ne fonctionne, comment faire le tri et choisir… ? Et, plus difficile encore : sachant que les prismes varient d’une personne à l’autre, comment choisir ensemble et ne pas se disperser … ?

 

Les sources d’inertie sociale

Les freins à l’innovation sont peu maîtrisés. Si le choix de faire obstacle peut être conscient, les raisons profondes de s’opposer sont rarement bien disséquées et toutes comprises. Les résistances au changement résident dans des phénomènes sociologiques enchevêtrés, difficiles à appréhender et dont la mise en œuvre parfaite relève de l’impossible surhumain :

  • Le paradigme : dans une vision du monde incomplète ou dépassée, toute idée nouvelle ne trouve sa place que par hasard. Or, qui peut porter un regard éclairé sur la complexité du monde en mouvement ?
  • L’identité collective : un éthos fragmentaire interdit de trouver ce qui correspond vraiment à la fois à son présent, son passé et son futur. Or, qui se connait ou point de maîtriser son destin ?
  • Les valeurs : un système de valeurs non partagé produit des réponses différentes à une même question, des projets divergents au sein d’un même groupe. Or, qui sait formuler les problèmes au point de faire toujours émerger une solution unique ?
  • Les structures : des vecteurs de liens incompatibles entre eux compliquent, voire interdisent l’intégration des cas particuliers que sont toujours les pionniers. Qui sait installer une organisation valide en toutes circonstances ?
  • La dynamique : des engrenages sociaux auto entretenus parasitent en cachette les relations au point d’obstruer une partie de l’entendement. Qui sait réajuster en continu les équilibres entre le formel et l’informel, le dit et le non-dit ?
  • Le sens : des contresens entre le déclaratif d’une vision théorique et le ressenti d’un vécu en pratique enrayent l’esprit critique et la faculté d’évaluer toute nouveauté. Qui sait conjuguer sans erreur le souhaitable et le possible ?
  • Les comportements : des relations pas toujours adultes avec tout le monde engendrent des réactions parfois irresponsables. Qui contrôle les mécanismes d’interaction au point de parvenir à ce que tout le monde s’entende ?
  • Le contrat social : une sélection mal définie et donc aléatoire des acteurs, pratiques et projets donne du pouvoir à des personnes qui se servent plutôt qu’elles ne servent. Qui sait transcender tous les intérêts particuliers dans l’intérêt général ?

Chacun de ces éléments est une source de freins qui active l’enchainement des autres. Le collectif est alors ralenti, voire empêché par l’une quelconque de ses diverses parties prenantes, puis par toutes, embarquées qu’elles sont dans une même interaction globale que personne ne contrôle. L’absorption collective des idées nouvelles devient alors de plus en plus compliquée. L’ensemble parait n’être plus qu’une foule ivre, incapable d’éclairer ses décisions pour vraiment maîtriser son destin. Ceux qui ne se résolvent pas à prendre acte de cette logique sociale pensent que quelques-uns dirigent le bateau en secret, alors qu’ils ne font qu’essayer de sauver leurs propres meubles. Pour eux, des conspirateurs manipulent la société, alors qu’elle évolue d’elle-même, au gré des événements vaguement intuités et anticipés par certains.

 

Mais, dans les sphères économique, politique ou sociale, tout manager expérimenté a pu mesurer la prégnance de ces phénomènes. Pour la plupart, ces obstacles épars peuvent sembler insurmontables. Pourtant, il est possible d’éclairer à la fois les blocages à l’œuvre et les orientations souhaitables. C’est la maîtrise des Modèles de l’intelligence sociale © qui accélère le repérage des causes de blocages et des leviers de la transformation positive :

  • La Grille d’analyse du lien social définit le fonctionnement des acteurs, des systèmes et des jeux d’acteurs.

➔ Échelle de la complexité et boussole de renforcement des performances futures.

  • Les 9 principes fondamentaux du dialogue organisent les modalités des interactions sociales propices au partage organisé de l’information.

➔ Clés du développement de comportements adultes, responsables, solidaires.

  • La Cohérence globale du sens concilie et aligne le sens souhaitable et le sens possible.

➔ Correctifs prioritaires pour développer l’adhésion au quotidien.

  • Les spirales sociales accordent les structures organisationnelles et les réflexes culturels.

➔ Détection des leviers d’une dynamique de transformation vertueuse.

  • Le Management de l’Organisation par l’Identité (M.O.I) optimise tous les vecteurs de liens avec les acteurs internes pour faire converger leurs énergies.

➔ Concordance méthodique de la gestion des ressources humaines.

  • Le Partage des valeurs fonde l’implication de chaque partie prenante dans des projets convergents.

➔ Clefs d’implication de tous dans un projet commun global.

  • La Grille d’analyse de l’identité collective établit l’éthos qui rattache les codes relationnels, les liens au territoire, le parcours historique et le projet collectif.

➔ Réécrire le récit, le narratif qui conjugue la vision et le réel.

  • L’apogée des sociétés révèle l’état de maturité du contrat social, du profil des dirigeants, de la gouvernance, du lien social et des performances.

➔ Paradigme de renouvellement de l’ensemble.

Tous corrélés par une déclinaison thématique de l’échelle de la complexité, ces modèles favorisent le dépistage des sources de discordances et la localisation des leviers de performance à long terme.

 

Ce corpus intellectuel et opérationnel constitue l’intelligence sociale, clé de la connaissance et de l’activation du lien social au service de la recherche de l’intérêt collectif et général.

L’intelligence sociale, comment ça marche ?

L’intelligence sociale s’appuie sur la reconnaissance de l’existence des mécanismes psychologiques, sociologiques, ethnologiques et philosophiques qui influencent à bas bruit, en positif ou négatif, toutes les relations sociales. Les Modèles de l’intelligence sociale organisent l’étude et la maîtrise des phénomènes relationnels au sein d’un collectif et entre des groupes :

  • Recense et décomposer les forces et les faiblesses des personnes, des organisations et des liens qu’elles entretiennent, leur histoire, leur nature et leur qualité afin de donner un schéma et des clés de compréhension de leur fonctionnement.
  • Structurer l’effort de découverte, de compréhension et d’appropriation des racines et des mécanismes de développement de la cohésion sociale et de la performance globale. Sa maîtrise permet d’adopter comme mode opératoire le dialogue continu et la réflexion collective.
  • Prendre en compte les caractéristiques individuelles ou propres à un groupe, en dissociant les enjeux un à un.
  • Définir et proposer les opérations correctives des modes relationnels, organisationnels et de gouvernance qui permettent de tisser des liens durables, cohérents et convergents entre toutes les parties prenantes et interlocuteurs passés, présents et futurs,

L’intelligence sociale, à quoi ça sert ?

In fine, appliquer les Modèles de l’intelligence sociale consiste à réunir les conditions de l’engagement des énergies dans une projet commun à long terme :

  • Identifier la cause et les processus spécifiques de transformation.de comportements différenciés ;
  • Repérer, analyser et renforcer les savoir-être ensemble des personnes physiques et morales ;
  • Développer la créativité, l’innovation, l’adhésion, la motivation, l’engagement ;
  • Asseoir une culture de responsabilité et de solidarité économique et sociale ;
  • Projeter les acteurs dans un développement vraiment durable, tant sur les plans individuel, collectif et planétaire ;
  • Développer les performances personnelles et collectives à long terme.

 

L’intelligence sociale, le nouvel enjeu économique, politique et social

Dans la société et dans l’entreprise, l’enjeu économique et politique devient donc la maîtrise de tous au profit de tous : c’est l’intelligence sociale d’une personne ou d’un groupe de personnes qui maintien et développe simultanément la cohésion sociale et la performance durable.

L’absence d’intelligence sociale est la cause profonde de la contre-performance durable, de l’affaissement, de la disparition. Il est temps de changer de profil de dirigeant : le plus apte n’est pas le plus grand expert, qui détient seul les solutions, mais celui ou celle qui sait faire accoucher les meilleures solutions par l’ensemble du corps social. L’intelligence sociale est la clé de la Renaissance, du Rassemblement, de l’Union ou de la Reconquête, comme de toute les organisations politiques, économiques et sociales.

_____

NOTES

(*)  L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Depuis 1990, l’Odissée conduit l’étude interactive permanente Comprendre et développer la Personne, l’Entreprise, la Société. Dès 1992, elle a diffusé un million de Cahiers de doléances, ce qui l’a conduit à organiser des groupes de travail regroupant des acteurs des sphères associative, sociale, politique, économique qui ont animé des centaines d’auditions, tables rondes, forums, tours de France citoyens, démarches de dialogue territorial et à l’intérieur des entreprises.

L’intelligence sociale : clés de l’avenir ?

L’intelligence sociale : clés de l’avenir ?

 

l’intelligence sociale, clé de la performance durable par Jean-François Chantaraud (L’odissé, dans la Tribune)

  • Tribune

La performance d’une organisation dépend de sa capacité à trouver et mettre en œuvre le plus vite possible les solutions les meilleures possibles à ses problèmes les plus importants. Si l’innovation est indispensable, elle ne suffit pas : elle doit s’accompagner d’une faculté collective d’appropriation des meilleures idées.

Un seul saut qualitatif est nécessaire pour fonder une entreprise, un parti politique ou encore un état. Or, celui qui n’avance pas recule : pour durer, il faut donc continuer à inventer par-delà la phase de création. Ainsi, le créateur qui ne se satisfait pas d’avoir créé et qui souhaite inscrire sa réussite dans le temps doit se réinventer encore et encore afin de toujours faire mieux.

L’innovation, facteur de perturbations

Bien sûr, trouver de nouvelles solutions à de nouveaux problèmes dépend de la capacité d’innovation. Mais innover ne consiste pas seulement à détecter et mettre au point de nouvelles idées. Car si l’on veut qu’une grande quantité d’acteurs soient en accord avec leur mise en œuvre, voire qu’ils les mettent eux-mêmes en pratique, il faut qu’ils les adoptent au point de rejeter leurs anciennes habitudes. Or, plus une innovation est innovante, plus elle bouleverse l’ordre établi. Et plus elle est perturbante, plus il est difficile de l’accepter. La performance d’une organisation dépend donc de sa capacité à impliquer ses interlocuteurs dans la définition et la mise en œuvre de ses projets.

Pour réussir à se transformer, un collectif doit donc savoir sélectionner et s’emparer des perturbations qui ont le plus de chances de l’impacter pour son bien. Et inversement, il lui faut savoir rejeter celles qui pourraient le tirer vers le bas. Sachant qu’aucune boule de cristal ne fonctionne, comment faire le tri et choisir… ? Et, plus difficile encore : sachant que les prismes varient d’une personne à l’autre, comment choisir ensemble et ne pas se disperser … ?

 

Les sources d’inertie sociale

Les freins à l’innovation sont peu maîtrisés. Si le choix de faire obstacle peut être conscient, les raisons profondes de s’opposer sont rarement bien disséquées et toutes comprises. Les résistances au changement résident dans des phénomènes sociologiques enchevêtrés, difficiles à appréhender et dont la mise en œuvre parfaite relève de l’impossible surhumain :

  • Le paradigme : dans une vision du monde incomplète ou dépassée, toute idée nouvelle ne trouve sa place que par hasard. Or, qui peut porter un regard éclairé sur la complexité du monde en mouvement ?
  • L’identité collective : un éthos fragmentaire interdit de trouver ce qui correspond vraiment à la fois à son présent, son passé et son futur. Or, qui se connait ou point de maîtriser son destin ?
  • Les valeurs : un système de valeurs non partagé produit des réponses différentes à une même question, des projets divergents au sein d’un même groupe. Or, qui sait formuler les problèmes au point de faire toujours émerger une solution unique ?
  • Les structures : des vecteurs de liens incompatibles entre eux compliquent, voire interdisent l’intégration des cas particuliers que sont toujours les pionniers. Qui sait installer une organisation valide en toutes circonstances ?
  • La dynamique : des engrenages sociaux auto entretenus parasitent en cachette les relations au point d’obstruer une partie de l’entendement. Qui sait réajuster en continu les équilibres entre le formel et l’informel, le dit et le non-dit ?
  • Le sens : des contresens entre le déclaratif d’une vision théorique et le ressenti d’un vécu en pratique enrayent l’esprit critique et la faculté d’évaluer toute nouveauté. Qui sait conjuguer sans erreur le souhaitable et le possible ?
  • Les comportements : des relations pas toujours adultes avec tout le monde engendrent des réactions parfois irresponsables. Qui contrôle les mécanismes d’interaction au point de parvenir à ce que tout le monde s’entende ?
  • Le contrat social : une sélection mal définie et donc aléatoire des acteurs, pratiques et projets donne du pouvoir à des personnes qui se servent plutôt qu’elles ne servent. Qui sait transcender tous les intérêts particuliers dans l’intérêt général ?

Chacun de ces éléments est une source de freins qui active l’enchainement des autres. Le collectif est alors ralenti, voire empêché par l’une quelconque de ses diverses parties prenantes, puis par toutes, embarquées qu’elles sont dans une même interaction globale que personne ne contrôle. L’absorption collective des idées nouvelles devient alors de plus en plus compliquée. L’ensemble parait n’être plus qu’une foule ivre, incapable d’éclairer ses décisions pour vraiment maîtriser son destin. Ceux qui ne se résolvent pas à prendre acte de cette logique sociale pensent que quelques-uns dirigent le bateau en secret, alors qu’ils ne font qu’essayer de sauver leurs propres meubles. Pour eux, des conspirateurs manipulent la société, alors qu’elle évolue d’elle-même, au gré des événements vaguement intuités et anticipés par certains.

 

Mais, dans les sphères économique, politique ou sociale, tout manager expérimenté a pu mesurer la prégnance de ces phénomènes. Pour la plupart, ces obstacles épars peuvent sembler insurmontables. Pourtant, il est possible d’éclairer à la fois les blocages à l’œuvre et les orientations souhaitables. C’est la maîtrise des Modèles de l’intelligence sociale © qui accélère le repérage des causes de blocages et des leviers de la transformation positive :

  • La Grille d’analyse du lien social définit le fonctionnement des acteurs, des systèmes et des jeux d’acteurs.

➔ Échelle de la complexité et boussole de renforcement des performances futures.

  • Les 9 principes fondamentaux du dialogue organisent les modalités des interactions sociales propices au partage organisé de l’information.

➔ Clés du développement de comportements adultes, responsables, solidaires.

  • La Cohérence globale du sens concilie et aligne le sens souhaitable et le sens possible.

➔ Correctifs prioritaires pour développer l’adhésion au quotidien.

  • Les spirales sociales accordent les structures organisationnelles et les réflexes culturels.

➔ Détection des leviers d’une dynamique de transformation vertueuse.

  • Le Management de l’Organisation par l’Identité (M.O.I) optimise tous les vecteurs de liens avec les acteurs internes pour faire converger leurs énergies.

➔ Concordance méthodique de la gestion des ressources humaines.

  • Le Partage des valeurs fonde l’implication de chaque partie prenante dans des projets convergents.

➔ Clefs d’implication de tous dans un projet commun global.

  • La Grille d’analyse de l’identité collective établit l’éthos qui rattache les codes relationnels, les liens au territoire, le parcours historique et le projet collectif.

➔ Réécrire le récit, le narratif qui conjugue la vision et le réel.

  • L’apogée des sociétés révèle l’état de maturité du contrat social, du profil des dirigeants, de la gouvernance, du lien social et des performances.

➔ Paradigme de renouvellement de l’ensemble.

Tous corrélés par une déclinaison thématique de l’échelle de la complexité, ces modèles favorisent le dépistage des sources de discordances et la localisation des leviers de performance à long terme.

 

Ce corpus intellectuel et opérationnel constitue l’intelligence sociale, clé de la connaissance et de l’activation du lien social au service de la recherche de l’intérêt collectif et général.

L’intelligence sociale, comment ça marche ?

L’intelligence sociale s’appuie sur la reconnaissance de l’existence des mécanismes psychologiques, sociologiques, ethnologiques et philosophiques qui influencent à bas bruit, en positif ou négatif, toutes les relations sociales. Les Modèles de l’intelligence sociale organisent l’étude et la maîtrise des phénomènes relationnels au sein d’un collectif et entre des groupes :

  • Recense et décomposer les forces et les faiblesses des personnes, des organisations et des liens qu’elles entretiennent, leur histoire, leur nature et leur qualité afin de donner un schéma et des clés de compréhension de leur fonctionnement.
  • Structurer l’effort de découverte, de compréhension et d’appropriation des racines et des mécanismes de développement de la cohésion sociale et de la performance globale. Sa maîtrise permet d’adopter comme mode opératoire le dialogue continu et la réflexion collective.
  • Prendre en compte les caractéristiques individuelles ou propres à un groupe, en dissociant les enjeux un à un.
  • Définir et proposer les opérations correctives des modes relationnels, organisationnels et de gouvernance qui permettent de tisser des liens durables, cohérents et convergents entre toutes les parties prenantes et interlocuteurs passés, présents et futurs,

L’intelligence sociale, à quoi ça sert ?

In fine, appliquer les Modèles de l’intelligence sociale consiste à réunir les conditions de l’engagement des énergies dans une projet commun à long terme :

  • Identifier la cause et les processus spécifiques de transformation.de comportements différenciés ;
  • Repérer, analyser et renforcer les savoir-être ensemble des personnes physiques et morales ;
  • Développer la créativité, l’innovation, l’adhésion, la motivation, l’engagement ;
  • Asseoir une culture de responsabilité et de solidarité économique et sociale ;
  • Projeter les acteurs dans un développement vraiment durable, tant sur les plans individuel, collectif et planétaire ;
  • Développer les performances personnelles et collectives à long terme.

 

L’intelligence sociale, le nouvel enjeu économique, politique et social

Dans la société et dans l’entreprise, l’enjeu économique et politique devient donc la maîtrise de tous au profit de tous : c’est l’intelligence sociale d’une personne ou d’un groupe de personnes qui maintien et développe simultanément la cohésion sociale et la performance durable.

L’absence d’intelligence sociale est la cause profonde de la contre-performance durable, de l’affaissement, de la disparition. Il est temps de changer de profil de dirigeant : le plus apte n’est pas le plus grand expert, qui détient seul les solutions, mais celui ou celle qui sait faire accoucher les meilleures solutions par l’ensemble du corps social. L’intelligence sociale est la clé de la Renaissance, du Rassemblement, de l’Union ou de la Reconquête, comme de toute les organisations politiques, économiques et sociales.

_____

NOTES

(*)  L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Depuis 1990, l’Odissée conduit l’étude interactive permanente Comprendre et développer la Personne, l’Entreprise, la Société. Dès 1992, elle a diffusé un million de Cahiers de doléances, ce qui l’a conduit à organiser des groupes de travail regroupant des acteurs des sphères associative, sociale, politique, économique qui ont animé des centaines d’auditions, tables rondes, forums, tours de France citoyens, démarches de dialogue territorial et à l’intérieur des entreprises.

 

Des enjeux éthiques majeurs de l’intelligence artificielle

Des enjeux éthiques majeurs  de l’intelligence artificielle

 

Alors que les promesses de transformation des entreprises, par le développement de l’IA, sont immenses, les trois chercheurs traitent, dans une tribune au « Monde », des enjeux majeurs liés à l’explicabilité des systèmes algorithmiques.

 

Tribune.

 

Au cœur de la nouvelle révolution industrielle et sociétale, les questions éthiques relatives à l’intelligence artificielle (IA) et à ses applications se posent avec acuité.

Actuellement, le débat le plus récurrent et le plus vif est celui des biais, réels ou supposés, que l’IA peut reproduire, ou engendrer. Ces biais, qu’ils soient de genre, relatifs aux origines, aux convictions religieuses ou aux opinions politiques, sont d’autant plus scrutés qu’ils font écho à des préoccupations politiques d’une actualité brûlante.

En parallèle des interrogations sur les biais, ou plutôt englobant ces questions, un autre enjeu éthique de l’IA se profile : celui de l’explicabilité des systèmes algorithmiques. La capacité des organisations à constamment expliquer les systèmes qu’elles conçoivent et utilisent pourrait vite devenir un enjeu politique majeur.

En effet, il peut être difficile de reconstituer le chemin qui conduit aux solutions proposées par des systèmes comprenant des algorithmes apprenants, notamment du deep learning tels que les réseaux de neurones. Or, c’est précisément cette famille d’IA, plutôt « boîte noire », qui connaît un succès important dans des tâches comme la reconnaissance d’image et de texte, utilisée dans les véhicules autonomes, les chatbots, les diagnostics médicaux…

Si, sur le papier, ex ante, leur fonctionnement est plus ou moins appréhendé, la complexité des multiples correspondances qui se forment durant l’apprentissage échappe à la rationalité limitée des humains, fussent-ils spécialistes. Comprendre pourquoi telle décision a été prise dans tel cas devient vite une gageure, encore plus en présence de plusieurs systèmes d’IA imbriqués les uns dans les autres. En témoignent les incertitudes persistantes sur les causes définitives de récents accidents de voitures autonomes, malgré les multiples travaux d’investigation sur le sujet.

Il faut donc expliquer pour d’une part, comprendre dans le but d’améliorer l’algorithme, parfaire sa robustesse et prévoir ses failles et, d’autre part, pour rendre compte aux multiples parties prenantes, externes (régulateurs, utilisateurs, partenaires) ou internes à l’organisation (managers, chefs de projet).

Pour répondre à ce défi, un nouveau champ a émergé : l’eXplainable Artificial Intelligence (XAI) qui propose des outils d’explication. Cependant, malgré les réponses qu’il apporte, des questions majeures persistent.

La première est l’identification du périmètre d’explication à retenir : les outils d’XAI permettent de comprendre certains fonctionnements, mais en occultent d’autres estimés non prioritaires.

« L’intelligence artificielle pour réduire l’empreinte environnementale ?

« L’intelligence artificielle  pour réduire l’empreinte environnementale  ?

Michaël Trabbia est responsable de l’innovation d’Orange. Passé par le cabinet du Ministre délégué à l’Industrie, diplômé de Polytechnique et Telecom ParisTech, il est persuadé que la pédagogie et le débat sont les meilleurs moyens de convaincre les réfractaires au progrès technique. À condition de s’assurer que l’éthique est bien respectée dans les technologies sensibles comme l’intelligence artificielle. (Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

L’innovation est une notion parfois difficile à cerner. Quelle est votre définition ?

Michaël Trabbia Pour moi, il s’agit d’apporter un service nouveau qui va permettre de simplifier ou d’enrichir la vie des utilisateurs. Ce type de services est très présent dans l’industrie du numérique. Dans un monde menacé par le dérèglement climatique, l’industrie du numérique peut-elle s’affranchir d’une réflexion sur son empreinte carbone ? Chez Orange, nous plaidons pour une innovation à impact positif, pour l’usager comme pour la société. Le bitcoin est un bon exemple. II y a un vrai sujet sur la consommation énergétique de cette technologie (estimée à 115 TWh, soit plus que les Pays-Bas, ndlr). C’est un point que l’on ne peut ignorer. L’innovation doit être bénéfique pour l’utilisateur, mais dans le cadre d’une démarche soutenable.

Quels sont les exemples de technologies qui peuvent aider à lutter contre les émissions de GES (gaz à effet de serre) ?

M.T. Le numérique, en nous permettant de communiquer à distance, a permis de limiter les déplacements. Nous sommes passés de la lettre manuscrite au téléphone, puis au courriel et maintenant aux outils de communication collaborative. Nous avons vu en cette période de Covid que le numérique nous a donné la possibilité de continuer à travailler en étant confinés. Si nous sommes capables d’ajouter un ou deux jours de travail à distance pour la moitié des salariés dans le monde, nous aurons un impact énorme dans la limitation des émissions de CO2. Autre exemple : le bâtiment. Avec les objets connectés, il est possible de faire baisser de 20 % à 30 % la consommation d’énergie. L’optimisation de la logistique avec de l’IA est un autre élément important de cette baisse des émissions de GES.

société-Quelle place de l’homme face à l’intelligence artificielle ? (Eric Salobir)

Place de l’homme face à l’intelligence artificielle ?  (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

Place de l’homme face à l’intelligence artificielle ? (Eric Salobir)

Place de l’homme face à l’intelligence artificielle ?  (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

 

Quelle place de l’homme face à l’intelligence artificielle (Eric Salobir)

Quelle  place  de l’homme face à l’intelligence artificielle (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

Science et humanité: la place de l’homme face à l’intelligence artificielle (Eric Salobir)

Science et humanité: la  place  de l’homme face à l’intelligence artificielle (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

Quelle place de l’homme face à l’intelligence artificielle (Eric Salobir)

Quelle place de l’homme face à l’intelligence artificielle (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol