Archive pour le Tag 'technologies'

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Nouvelles technologies : ChatGPT, un tournant ?

Nouvelles technologies : ChatGPT, un tournant  ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

Nouvelles technologies: Stop au tout digital

Nouvelles technologies: Stop au tout digital

La présence en ligne n’est pas la panacée. Encore moins une solution miracle pour redresser une entreprise en crise. Rechercher à tout prix et sans prendre de hauteur un projet de digitalisation pourrait même s’avérer dangereux. Par Romain Didrich, Fondateur de l’agence Kaizen (dans la Tribune)

Une tribune intéressante mais dont l’objet n’était pas de traiter également le côté kafkaïen de la digitalisation de l’ensemble de la société qui génère la robotisation des relations humaines NDLR

« Halte au tout digital !… À la suprématie d’Internet !… Au règne du click et du e-commerce ! ». On ne compte plus le nombre d’entreprises qui se lancent, tête baissée, dans un projet de digitalisation. Certaines dans l’optique de faire comme le concurrent. D’autres, pour répondre aux injonctions de notre société qui ne jure désormais que par le virtuel. D’autres, encore, par simple vanité personnelle. Parce qu’il est toujours valorisant de pouvoir afficher une jolie vitrine qui chante les louanges de son activité. Quand bien même serait-elle dématérialisée.
Bien sûr, une présence en ligne s’avère utile pour développer une activité commerciale (prestation de service, hôtellerie et restauration, vente de produits…).

Elle n’est toutefois pas toujours nécessaire et peut même se révéler dangereuse. A défaut d’accompagnement stratégique sur la question, certaines entreprises s’enlisent dans un projet de digitalisation mal ficelé, mal pensé, mal piloté. La perte de temps (et d’argent) qui s’ensuit n’est bien souvent pas négligeable. Surtout pour les petites entreprises.

Les ayatollah du digital oublient bien souvent un élément. Un détail qui a toutefois son importance : le réel, la vraie vie… et le bon sens ! Non, le digital n’est pas toujours la meilleure solution pour faire connaître son activité et se développer. En e-commerce, les places sont chères. Seule une poignée d’établissements « remontent » en première page Google. Comment peut-on espérer être visible, avoir des « e-clients », lorsque l’entreprise n’apparaît qu’en troisième ou quatrième page du moteur de recherche ?

Prenons l’exemple d’un producteur de vin qui souhaite développer son activité. Sur la Toile, il sera confronté à des géants du secteur. Des mastodontes comme Nicolas, Cash Vin, Dock du Vin, etc. Difficile, voire impossible, dès lors, pour ce producteur de tirer son épingle du jeu en ligne. S’il souhaite faire connaître sa marque et son produit, mieux vaut établir avec lui et pour lui, une stratégie à son échelle. Pourquoi pas autour de petits événements physiques et de proximité (stand sur des marchés, présence dans des salons…). Et, s’il parvient à développer son chiffre d’affaires et à fidéliser sa clientèle, alors il pourra envisager sereinement une stratégie de e-commerce. Une stratégie adaptée à son activité et à sa cible. En effet, les clients fidélisés sur les marchés seront les premiers à naviguer sur le site du producteur et donc, les premiers à acheter en ligne.

La logique est la même pour les petits commerçants. Notamment dans l’univers du prêt-à porter. Comment des boutiques de quartier peuvent-elles se démarquer sur Internet face à des marques comme H&M, Promod, Ba&sh, mais aussi des plateformes comme Amazon, Shein, Veepee…? Chercher une très grande visibilité en ligne n’a, dans ce cas, que peu d’intérêt. Le principal client de ce type de commerce est un consommateur local. C’est d’ailleurs parce qu’il est ultra-local que celui-ci est bien souvent très fidèle. Pour un tel commerce de proximité, la clientèle ne se fait pas en ligne, mais dans la rue. Avant de chercher une présence en ligne, il est ainsi indispensable de penser à la visibilité de la boutique. Est-elle suffisamment éclairée ? Est-elle située dans une zone passante ? Ses horaires d’ouverture sont-ils clairement affichés ? Des questions qui peuvent paraître anodines mais qui, bien souvent, passent à la trappe. Elles sont pourtant indispensables avant d’envisager tout chantier digital.

Qu’en est-il pour les professions libérales, les auto-entrepreneurs et autres acteurs qui n’ont ni pignon sur rue ni objet matérialisable à vendre ? Ces acteurs doivent effectivement, d’une manière ou d’une autre, déployer leur visibilité en ligne (sauf s’ils disposent d’une solide réputation et qu’ils ont la possibilité de se développer uniquement grâce au « bouche à oreille ». C’est rare, mais ça existe). Ces professions n’ont pas nécessairement besoin d’avoir leur propre site et ont la possibilité de se reposer sur la puissance de célèbres plateformes.
Les kinésithérapeutes, ostéopathes, podologues… peuvent ainsi compter sur le rayonnement de doctolib.

Ils ont la possibilité de se présenter, d’indiquer leur activité, leur mode d’exercice, leurs tarifs… et même de diffuser des photos d’eux et de leur cabinet. Il en va de même pour les restaurants, les hôtels ou les gîtes, qui peuvent très largement se présenter via des sites spécialisés comme Booking ou TheFork.

Nombreux sont les établissements qui font le choix de ne pas avoir de site propre et de n’être visibles que sur ces plateformes. D’autres entreprises optent pour une solution encore plus simple et se limitent à une page Facebook ou une référence Google via une fiche d’établissement (anciennement connue sous le nom « Google my business »). Une présence a minima sur la Toile mais qui, dans certains cas, suffit à atteindre son but final : augmenter son chiffre d’affaires.

Mieux vaut ainsi, pour un grand nombre d’acteurs, une présence simple et efficace sur la Toile, qu’une stratégie complexe, chronophage et coûteuse. Car oui, digitaliser son activité n’est pas une mince affaire. Elle suppose à la fois d’avoir un regard global sur le secteur, sur l’activité, sur la zone géographique, sur les objectifs commerciaux… Elle suppose ensuite de déterminer la meilleure stratégie possible. Cette stratégie prend en compte la création d’un site, mais aussi son référencement sur les moteurs de recherche. Un projet complet et, à certains égards complexe, qui suppose à la fois d’en avoir les moyens financiers et de s’entourer des bonnes personnes. Des prestataires aguerris et éclairés qui sont capables d’avoir non seulement un regard technique mais également une vision stratégique et globale. Sans quoi digitalisation pourrait bien rimer avec damnation.

Nouvelles technologies-la folie du tout numérique

Nouvelles technologies-la folie du tout numérique

 

 

Comme à chaque étape d’évolution technologique, le numérique a apporté des progrès indiscutables mais ses excès ont aussi favorisé la déshumanisation des relations sociales.

La vapeur, l’électricité, l’automobile ont constitué des étapes importantes de l’évolution technique mais ont également favorisé des effets pervers. Par exemple, le rail qui a remodelé l’aménagement du territoire et créé de véritables déserts économiques et sociaux en supprimant les lignes secondaires alors qu’au contraire il pouvait être un outil de développement harmonieux et équilibré.

L’ Électricité quant à elle ne doit pas faire oublier ses conditions de production tout autant que les gâchis de consommation. Il aura fallu attendre la guerre d’Ukraine pour qu’on commence à limiter l’inutile illumination permanente des villes qui par parenthèse trouble l’orientation des oiseaux migrateurs. Le numérique aura été la grande découverte et la grande application à partir de la fin du XXe siècle. Entreprises, citoyens, politiques perdent beaucoup en crédit s’ils ne glissent pas le mot numérique à chaque phrase.

Il s’agit évidemment d’un moyen extraordinaire pour transmettre en temps réel des masses d’informations qui demandaient précédemment des jours voire des semaines et même davantage. L’intérêt de la technique -autant que la mode- acontraint une grande partie de l’économie et de la société à se soumettre à la nouvelle religion. Évidemment avec la ferveur des nouveaux convertis.

Même les relations les plus intimes sont donc confiées également aux outils télé informatiques. Les progrès aidants, on pourra même se passer d’un humain pour converser. Et les perspectives d’évolution sont sans limites puisque des robots pourraient se substituer totalement à l’homme lors des échanges. D’autres envisagent d’implanter une puce dans le crane des humains véritablement en situation d’addiction technologique. Le Smartphone fait désormais parti du corps humain même la nuit. De ce point de vue, ses pannes seront un jour pris en charge par la sécurité sociale.

Les situations les plus kafkaïennes sont créées par ce recours surréaliste à la technique du digital. Ainsi toutes les relations administratives et commerciales ou presque passent par des plates-formes Internet ou des robots qui font semblant de répondre aux questions qui se posent.

Les marchands du temple ont bien entendu aussi envahi le numérique avec leur pub, leur fichier, leur site de vente. L’administration elle-même s’est engouffrée dans cette mode. Au lieu de répondre à une question, le robot propose la touche 1 ou la touche 2, 3 ou 4 avant même qu’on ait pu saisir le choix proposé.( Ou on propose de prononcer des mots que l’ordinateur ne comprend pas évidemment). Heureusement , il y a la touche 5 ( Où le mot de départ) qui permet de revenir au premier message qui tourne ainsi en boucle.

Le pire sans doute c’est que la numérisation a affecté encore davantage les rapports humains que les rapports commerciaux et administratifs. Mais en réalité, l’utilisateur du Smartphone, de la tablette ou de l’ordinateur converse surtout avec lui-même. Et les « progrès » aidant on pourra même se passer d’intermédiaires techniques et sombrer dans une sorte de schizophrénie permanente quand l’intéressé finira par se parler à lui-même. Il ne s’agit sans doute pas de déréglementer surtout ce qui relève du privé mais de développer une sorte d’éthique et de formation à l’usage de techniques qui mettent l’homme en situation de dépendance au même titre que l’alcool ou la drogue certes avec des conséquences moins mortelles.

L’excès de numérique ne met pas forcément en cause la vie humaine mais il peut condamner à vivre idiot.

Nouvelles technologies- Métavers: la cruelle illusion ?

Nouvelles technologies- Métavers: la cruelle illusion ?

Il semble bien que l’immense projet metavers de Facebook va se transformer en véritable catastrophe économique. Facebook ( Meta) avait créé l’illusion d’une véritable révolution technologique grâce à la virtualité. Un an après, tous les projets déçoivent et il n’y a plus d’argent Meta a créé une illusion collective. Un an après, tout le monde a entendu parler de métavers mais peu savent bien le définir, surtout, très peu le fréquentent et pire, encore moins le désirent.

Un échec pourtant prévisible. Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».
Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ¬fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Nouvelles technologies: Une révolution digitale qui va tout changer

Nouvelles technologies: Une révolution digitale qui va tout changer ?

Dans le numérique, une innovation de rupture s’impose tous les 10 ans. La prochaine sera celle de la décentralisation massive de tout, avec avec pour conséquence de voir les « barbares » remplacer les empereurs qui dominent actuellement l’industrie numérique. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies. ( dans la Tribune)

Un article intéressant mais cependant un peu confus et excessif sur la révolution digitale en cours.Notons juste un exemple l’amplification de la circulation de l’information n’a pas entraîné jusque-là la baisse de base de la mobilité physique; au contraire elle la favorise. NDLR

Les grands moteurs structurants de la mutation numérique sont l’accroissement continu des puissances disponibles de traitement de l’information, de la suppression des contraintes de temps et de distance, des nouvelles possibilités de collaboration et la chute des coûts de communication, d’interaction et plus généralement de transaction.
Ces grands moteurs s’expliquent par 4 lois :
• Loi de Moore, selon laquelle le nombre de transistors sur une puce doublera tous les deux ans.
• Loi de Kryder, selon laquelle le stockage en mémoire augmenterait de façon exponentielle dans un avenir proche.
• La loi de Robert, selon laquelle le coût de la transmission de données sur le réseau diminuerait chaque année.
• La loi de Metcalfe, selon laquelle, l’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs (N²)
Ces grandes mutations numériques se produisent tous les 10 ans. 1944, avec le premier ordinateur, 1954 avec le mainframe, 1964 avec le mini ordinateur, 1974 avec le micro ordinateur, 1984 avec le Mac, 1994 avec le Web, 2004 avec les réseaux sociaux. Depuis 2014, nous sommes rentrés dans l’ère de l’Internet of Me. Le prochain mouvement tectonique commencera en 2024, avec la décentralisation massive de tout.
Ces mouvements tectoniques sont orchestrés par la nouvelle façon d’accéder à l’information et de communiquer. Un proverbe chinois connu positionne très bien la révolution que nous vivons actuellement.
Il dit la chose suivante :
« Dis-le moi et je l’oublie
Montre-le moi, et je le retiens
Implique-moi, et je comprends »
Dis-le moi et je l’oublie
Ce sont les médias traditionnels. Cette démarche est adaptée au marketing de masse. C’est la presse et la radio. Ils diffusent des textes ou des séquences sonores. Ces modes de communications sont linéaires et induisent un mode de fonctionnement très fortement structuré et réducteur. Le point important est la non interactivité, les auditeurs réagissent peu et difficilement, et pas entre eux L’exemple type de ce mode de communication est la radio.
Montre-le moi et je le retiens
C’est l’audiovisuel avec la télévision mais aussi le cinéma. Le pouvoir de l’image est considérablement plus grand que celui du texte et du son parce que plus émotif, il provoque des réactions rapides et peu réfléchies. Pas d’interactivité et plus de superficialité qu’avec l’écrit. Dans une société de plus en plus entièrement tournée vers l’efficacité au moindre coût, l’audiovisuel est devenu le moyen de communication de base, car il est plus riche et plus performant. La télévision est l’exemple type de ce mode de communication.
Implique-moi et je comprends
C’est l’apport fondamental d’Internet par rapport à la radio et à la télévision. La richesse du média audiovisuel reste limitée, car il rend passif l’utilisateur. Au contraire, les nouvelles technologies de l’information permettent d’impliquer plus fortement l’individu, le rendre plus actif et plus responsable, donc plus autonome et plus efficace.
C’est ici que réside toute l’originalité de ce nouveau média dont il est possible d’imaginer aisément l’impact sur notre société. Le dialogue devient réel et la création de valeur va dépendre de la loyauté. Ce n’est que l’effet David, il y a aussi l’effet Goliath, prise de monopole, manipulation plus efficace et uniformisation (Coca, McDo…).
Les mouvements tectoniques depuis 1985 à 2020
Les effets de la tectonique des médias se sont d’abord faits sentir sur les contenus qui en devenant numériques sont à l’origine d’une transformation des équipements nécessaires à leur restitution mis à la disposition du grand public. Ces équipements associés aux contenus ont nécessité de nouvelles infrastructures qui ont permis des échanges entre les individus beaucoup plus efficaces. Ces nouvelles infrastructures ont ensuite nécessiter de nouveaux services qui à leur tour ont nécessité des contenus.
Les 4 plaques tectoniques ont déjà fait profondément transformer de nombreux secteurs d’activité :
• Les contenus ont commencé à se numériser en 1985 avec les CD-COM et l’interface du Mac
• Les équipements ont commencé à s transformer en 1990 avec la télévision interactive et à haute définition
• Les infrastructures ont commencé à se transformer avec le web en 1995
• Les services ont commencé à se transformer avec les moteurs de recherche en 2000
Depuis 2000, nous sommes de nouveau revenus à un nouvelle série de mouvements tectoniques qui se sont se succédés de la façon suivante :
Le début de la nouvelle ère des contenus a été régi par les réseaux sociaux (2005-2010)
Les fonctions participatives, la liberté d’expression caractéristiques des réseaux sociaux ont libéré la voix des consommateurs non seulement vis-à-vis de la marque mais surtout entre eux.
Les enjeux de ce nouveau paradigme débordent largement le cadre d’Internet puisque les marques vont devoir passer :
• d’une logique transactionnelle à une logique conversationnelle : difficile maintenant d’assurer une vente sans avoir débuté une écoute attentive des besoins du consommateur et une réponse personnalisée à ceux-ci
• d’une logique de distance et d’anonymat à une logique de proximité : de la hot-line standardisée à la conversation humanisée
• d’un marketing de diffusion (écran TV, annonce presse, bannière Web, etc.) à un marketing d’engagement : la mise à disposition pour un client d’une équipe et d’une organisation spécifique
• et probablement de valeurs consuméristes à des valeurs morales et de responsabilité sociale : les promotions sur les prix feront-elles face à des engagements moraux et sociétaux des entreprises ?
Le début de la nouvelle ère du smartphone et de l’ATAWAD (2010-2015)
La nouvelle électronique grand public a permis au client impatient d’accéder aux services dont il a besoin non seulement tout de suite mais n’importe quand et n’importe où et où qu’il soit. Les objets nomades nous ont fait découvrir avec l’ATAWAD que nous pouvons agir au même moment et du même endroit sur notre sphère professionnelle et notre sphère privée, intervenir du bureau et de la maison ou notre lieu de loisir, de commerce.
Le début de la nouvelle ère de l’IoT avec l’atmosphère IP (2015-2020)
Avec l’Atmosphère IP et l’ATAWAD, l’extension des infrastructures de réseaux numériques de toute nature et notamment sans fil a permis au consommateur de prétendre pouvoir affirmer : « ma maison, mon bureau, mes lieux de loisir ou de consommation ne sont plus dans leurs murs, ils sont là où je suis… et mes relations sont toujours à portée de ma voix ou de mon courrier ». Les mobiles ont joué un rôle de en plus important.
Cette ère a été marquée par l’émergence de l’IoT avec les caractéristiques suivantes :
• l’IoT encourage la communication entre divers appareils. Les appareils physiques peuvent rester connectés et offrent une transparence totale avec moins d’inefficacité et une meilleure qualité.
• les objets physiques se connectent, numériquement avec une infrastructure sans fil, il y a donc une grande quantité d’automatisation et de contrôle.
• Plus d’informations, cela aide à prendre de meilleures décisions.
Les prochains mouvements tectoniques devraient être les suivants :
• L’Internet of Augmented Me (2020-2025)
• La décentralisation massive de tout avec le Web3 (2025-2030)
L’Internet of Me
L’Internet of Augmented Me ou en abrégé I.am définit un cadre de vie où le consommateur citoyen est maître de ses choix et influence directement la production de biens et de services par le biais d’interactions électroniques, partout où il est.
Cet univers répond aux besoins primaires des individus et à leurs désirs d’épanouissement. Il s’appuie sur des combinaisons de technologies avancées, mêlant numérique, physique quantique et biologie.
Avec l’Internet of Me, nous sommes maintenant dans la troisième vague où les acteurs ne se laisseront plus obnubiler par les taux d’audience et se concentreront sur les transactions effectivement effectuées.
Ces transactions effectives impliquent une implication suffisante des prospects pour qu’ils passent à l’acte. Le commerce sera notamment d’autant plus efficace qu’il écoutera, donnera la possibilité à la demande de s’exprimer en confiance, de façon individuelle, n’importe où et n’importe quand.
Ce commerce de l’ubiquité exploite pleinement l’économie de réseau, la possibilité d’agréger des offres dans une logique de consommation en se libérant des astreintes de la logique de production, en misant à fond sur le pouvoir d’implication de l’unimédia.
L’implication est essentielle car dans une situation où toute l’offre du monde est à portée de clic, ce qui est rare est le temps de chacun, ce qui est précieux, c’est de réussir à retenir l’attention de quelqu’un pour qu’il veuille bien accorder un peu de son temps à examiner une offre.
La décentralisation massive de tout
25 innovations digitales seront au cœur de la nouvelle vague des innovations digitales :
• 6G
• 5G
• L’AR/VR
• L’autonomie de tout
• La Blockchain
• La connectivité globale
• La DAO
• La datafication
• Les drones
• Les edge computing
• L’énergie harvesting
• Les nouvelles sources d’énergie (hydrogène, solaire, etc.)
• L’intelligence artificielle
• L’identification décentralisée
• L’impression 3D
• Les interfaces naturelles
• L’Internet des comportements
• L’Internet du corps
• L’loT
• Le métaverse
• La nouvelle mobilité
• L’informatiques quantique
• La robotique as a service
• La cyber sécurité et la résilience
• La tokenisation
• Le twin
Au cours des 10 prochaines années, l’impact de cette vague du numérique va complètement transformer les modèles économiques, le commerce immersive, l’industrie, l’agriculture, les super cities, la logistique, les bâtiments intelligents, la supply chain, etc.
Les barbares vont en profiter pour remplacer les empereurs actuels
Le catalyseur de cette nouvelle vague du numérique sera le Web3.
Web3 est l’internet décentralisé qui vient remplacer le web actuel. L’architecture web3 est conçue pour être un réseau décentralisé de nœuds peer-to-peer. La pile web3 se compose de protocoles, de normes et d’interfaces qui constituent l’épine dorsale de ce nouveau type d’Internet.
Web3 est une initiative visant à façonner l’avenir d’Internet. C’est la prochaine étape logique pour donner aux utilisateurs un contrôle total sur leur contenu, leur propriété numérique et leurs personnages numériques dans le domaine numérique.

Nouvelles technologies : la photonique

Nouvelles technologies : la photonique

La photonique est une technologie clé que l’Europe ne peut se permettre de perdre

OPINION. Pour rester compétitive, l’Europe doit être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Notamment la photonique, ou science de la lumière, qui trouve des cas d’usage dans de nombreux secteurs stratégiques, à commencer par l’agriculture. Par Giorgio Anania, PDG de la startup industrielle Aledia.

 

La photonique, ou science de la lumière, est un outil essentiel pour les ambitions de l’Europe en termes de numérique, de technologie de fabrication (industrie 4.0), d’intelligence artificielle, d’agriculture intelligente, de 5G, etc. En tant que technologie habilitante, elle touche à des éléments essentiels liés à des chaînes de valeurs stratégiques, de l’industrie automobile et médicale à l’aérospatiale et aux ordinateurs quantiques.

Actuellement, une vague de chaleur s’abat sur l’Europe et représente une véritable menace pour l’agriculture. En outre, et depuis quelques années, les sols sont trop secs (y compris en France), ce qui affecte davantage le secteur. Selon les experts du climat, dans les prochaines années, nous serons encore plus souvent confrontés à ces conditions qui risquent d’être plus dramatiques. L’agriculture devra donc devenir beaucoup plus efficace, et pas uniquement au niveau de la consommation d’eau.

La photonique contribue à l’amélioration de l’agriculture moderne. En effet, les lasers, l’imagerie hyperspectrale, les capteurs et les LED sont déjà utilisés quotidiennement dans l’agro-industrie. Grâce à ces produits et solutions photoniques, l’agriculture peut surveiller le niveau d’eau, prédire le taux de protéines dans les récoltes de céréales, déterminer le moment opportun pour la récolte des fruits et analyser les produits pour détecter les polluants.

À l’avenir, la photonique pourra contribuer à gérer les fermes verticales. Il s’agit de la culture de denrées alimentaires sur plusieurs niveaux, par exemple dans des hangars. Les fermes verticales, permettent notamment d’économiser de l’espace et de l’eau par rapport aux serres conventionnelles. Les environnements soigneusement contrôlés amélioreront la qualité et le goût des aliments.

Les exemples cités ci-dessus ne représentent qu’un échantillon de ce que la photonique peut apporter. Ses avantages touchent de nombreux autres secteurs clés en France et dans l’UE. Quelques chiffres permettent d’ailleurs d’illustrer l’importance de l’industrie photonique : les entreprises de photonique de l’UE ont pu passer d’un chiffre d’affaires de 76 milliards d’euros en 2015 à 103 milliards d’euros en 2019 – ce qui correspond à un taux de croissance annuel moyen de 7 % sur cette période. Cette croissance dépasse celle de plusieurs secteurs y compris le secteur de la tech avec 4,5 % ou la technologie médicale avec 4,9 %.

Aujourd’hui, le marché de la photonique est desservi par environ 5000 entreprises, principalement des PME. Celles-ci sont extrêmement compétitives, ont créé plus de 30 000 nouveaux emplois au cours des dernières années et ont l’intention de continuer sur cette lancée. Sur le marché mondial, l’industrie photonique européenne s’affirme comme le deuxième plus grand marché, juste derrière la Chine.

Néanmoins, nous sommes confrontés à une concurrence de plus en plus rude – souvent soutenue par des investissements très importantes de la part des États. Il suffit d’observer les autres pays pour connaitre le soutien dont ils disposent. Selon une étude menée en 2017, le gouvernement chinois a subventionné à lui seul l’industrie photonique locale à hauteur d’un milliard d’euros (au moins), sans compter les aides régionales. Selon cette même étude, la Corée du Sud est également très attachée à la photonique et a injecté au moins 2,8 milliards d’euros de fonds publics afin de la propulser au premier rang mondial. Récemment, les États-Unis ont également conclu un partenariat public-privé d’une valeur de 610 millions de dollars afin de contribuer à renforcer la production high-tech de circuits intégrés photoniques dans le pays.

Nous sommes fermement convaincus que pour rester compétitive, l’Europe devrait être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Pour cela, Photonics21 a déposé une proposition auprès de la Commission européenne, dénommée « Horizon Europe 2021-2027 ». En effet, les dépenses consacrées aux recherches provenant des fonds européens (dont le montant est d’environ 500 millions d’euros) sont complétées par des investissements « privés » issus d’acteurs de l’industrie photonique dans des services de recherche et d’innovation, ainsi que des investissements (R+I spending et Capex) d’environ 100 milliards d’euros d’ici à 2027 également.

Nous avons récemment assisté à une crise des semi-conducteurs face à la concurrence internationale. En conséquence, une pénurie des puces électroniques a gravement nui à l’économie européenne. Aujourd’hui, une loi européenne sur les puces électroniques est nécessaire pour renverser la donne. Afin d’éviter que cela ne se reproduise avec la photonique, il faut prévoir un « EU Photonics Act ». La photonique étant indispensable pour les différents secteurs et dont la valeur ne fera qu’augmenter avec le temps. La promotion de la recherche au niveau national et européen est par conséquent primordiale.

Régénération cellulaire possible avec les nouvelles technologies ?

Régénération cellulaire possible avec les nouvelles technologies ?

Pour la première fois, un morceau de tissu humain imprimé en 3D a été implanté sur une patiente, ouvrant la voie à la régénération du corps en imprimant ses propres cellules. Pour des greffons accessibles, naturels avec zéro rejet. ( un papier de la Tribune )

 

C’est une première pour la communauté scientifique et médicale. En mars dernier, une équipe américaine a implanté sur une patiente un pavillon d’oreille biologique imprimé en 3D. La greffe visait à corriger la malformation congénitale d’une des oreilles due à ce qu’on appelle la microtie. Fabriquée par la biotech américaine 3DBio Therapeutics, l’implant a été imprimé avec des cellules de cartilage de la patiente. Auparavant la biotech avait aussi imprimé une coque de la même forme que l’autre oreille. Une coque pour que le mélange de cellules et gel de collagène imprimés garde la bonne forme du pavillon en se développant. Faite de matériaux biodégradables, cette coque sera intégrée au corps de la patiente au fil du temps pour laisser libre ce nouveau pavillon d’oreille vivant. Suite à ce premier succès, 3DBio Therapeutics lance un essai clinique à Los Angeles (Californie) et San Antonio (Texas) sur onze patients atteints de microtie.

L’impression de cartilage

Si l’essai décrit est confirmé par les publications à venir, cette greffe de tissus biologiques imprimés fait partie des grandes innovations médicales attendues. La biotech américaine est restée avare sur les détails de sa technologie, mais l’annonce semble sérieuse alors que 3DBio Therapeutics travaille sur l’impression de cartilage depuis plusieurs années. En France, notre pionnière de l’impression de tissus biologique Proietis est également sur les rangs. Elle devrait implanter le premier morceau de peau imprimée en 3D à l’hôpital de Marseille en fin d’année.

Le principe de l’impression biologique semble simple : cultiver différents types de cellules de peau ou de cartilage afin d’obtenir des « encres » biologiques à imprimer en D. En réalité, il s’agit d’une bio technologie très complexe qui a demandé des années de mise au point. D’une part, les cellules sont vivantes et doivent le rester pendant l’impression et après. L’imprimante doit éviter toute contamination microbienne ou chimique qui dégraderait le tissu. Les différentes cellules doivent toutes être imprimées dans le bon ordre pour fonctionner entre elles comme dans notre organisme. Elles doivent aussi disposer des ressources nécessaires pour survivre le temps que le tissu soit utilisé.

L’unité Inserm BIOTIS travaille sur l’impression de tissus biologiques en 3D. Elle imprime notamment des tumeurs cancéreuses pour comprendre comment elles se développent et à quoi elles réagissent. « Avec ces encres biologiques, les tissus évoluent une fois imprimés et il faut bien comprendre comment, souligne son directeur Jean-Christophe Fricain. Ils doivent aussi être alimentés en oxygène et en nutriments pour survivre. Imprimés en couches fines, on peut les alimenter de l’extérieur in vitro et in vivo le corps les revascularisera une fois qu’ils seront implantés. Mais imprimer un organe plus épais nécessiterait d’y adjoindre un circuit veineux vasculaire hiérarchisé à raccorder aux vaisseaux du patient ce qui est un nouveau défi à relever. »

Autorisation réglementaire

Si certains labos et biotechs impriment des tissus biologiques depuis quelques années, ils sont utilisés dans le cadre d’analyses et de recherches. Jusqu’à l’expérience 3DBio Therapeutics, personne n’avait encore reçu l’autorisation réglementaire de les implanter sur des patients. Car l’opération nécessite des autorisations strictes comme dans le cadre des médicaments.

Depuis 2016, la biotech française Proietis imprime de la peau destinée aux recherches pharma, aux tests toxicologiques et à la cosmétique. Elle est passée au stade supérieur en novembre dernier en installant sa plateforme de bio impression dans un hôpital de Marseille pour lancer des essais cliniques. Là encore, un implant de peau imprimée sera une première. Mais l’exercice nécessite de convaincre les instances sanitaires très vigilantes sur sujet : le procédé d’impression doit être conforme aux bonnes pratiques de fabrication (BPF) du médicament pour que le morceau greffé au patient soit parfaitement sans danger.

« Nous sommes en train de boucler le dossier de demande d’essai clinique avec l’APHM (1), affirme le CEO Fabien Guillemot. Avec les essais précliniques sur des souris, nous avons vérifié la capacité à suturer cette peau imprimée et sa bonne prise sur la plaie de l’implant. Nous pensons envoyer la demande d’essai en septembre et, grâce à la procédure fast track, nous pourrions obtenir l’autorisation en fin d’année. » Comme avec de nombreuses biotechnologies aux tarifs difficiles à supporter par les systèmes de santé, ce nouveau traitement posera la question du modèle économique, alors que cultiver des cellules vivantes ou modifier des gènes coûte bien plus cher que le travail de substances chimiques. « Nous avons cherché des moyens de maîtriser le coût de cette nouvelle technologie. Nous proposons d’implanter nos plateformes dans les plus grands hôpitaux afin de produire là où on implante sans coûts de conservation et de transport. En imprimant les propres cellules de peau du patient, nous évitons aussi tout phénomène de rejet. »

Ces premiers essais cliniques, actuels et à venir, font déjà rêver d’une médecine capable d’imprimer des cœurs et des foies en 3D pour remplacer les organes malades, mais on en est encore vraiment très loin. Le laboratoire de recherche CNRS 3DFab étudie les différentes applications de la fabrication 3D en santé : « Si l’on sait imprimer des tissus simples, on ne maîtrise pas du tout la fabrication de ceux qui, par exemple, filtrent le sang ou produisent des substances nécessaire au corps, affirme le Dr Christophe A. Marquette, Directeur adjoint du laboratoire. On va déjà avoir besoin de cinq ou dix ans pour greffer couramment la peau ou le cartilage. Mais de bien plus encore pour pouvoir implanter des organes plus complexes. » En mars dernier, des chercheurs de l’Université d’Utrecht (Pays-Bas) ont imprimé des cellules hépatiques pour créer un tout petit foie au fonctionnement proche d’un organe naturel. Mais l’organe n’était vraisemblablement pas vascularisé pour survivre et lorsque l’on saura fabriquer des foies ou des reins valides, encore faudra-t-il leur apprendre à fonctionner. « Aujourd’hui, la science travaille sur des systèmes de développement in vitro des organes. Au-delà de leur impression, ils doivent être capables d’entrer en fonction comme ceux d’un embryon. Fabriquer et mettre en service ce type d’organe devrait impliquer des coûts très élevés au regard des volumes que l’on pourra vendre. »

En attendant les peaux et les cartilages imprimés – alors que la Chine travaille sur l’impression de vaisseaux sanguins – l’impression 3D au service de la médecine permet déjà de fabriquer des structures pour des greffons sur mesure. Ces coques sont imprimées dans des matériaux naturels type silicone. On y injecte les cellules du patient pour qu’elles se multiplient dans un milieu adapté et à la bonne forme. C’est le cas des bioprothèses mammaires de la biotech française Healshape, des prothèses faites des cellules du corps lui-même qui reprennent la forme souhaitée après une mastectomie (voir article de La Tribune ).

Tout jeune, mais en pleine expansion, le marché semble prometteur. Data Bridge Market Research estime que ce marché des tissus imprimés en 3D devrait connaître une croissance à un taux de croissance annuel composé (TCAC) de 14,32 % entre 2021 et 2028. Il se développerait en médecine régénérative sous l’effet des maladies chroniques et du vieillissement de la population nécessitant davantage de régénérations.

(1) APHM : Assistance publique hôpitaux de Marseille

Nouvelles technologies : mettre fin aux logiciels espion

Nouvelles technologies : mettre fin aux logiciels espion des mobiles

 

La révélation en juillet 2021 de l’ampleur de la surveillance illégale étatique menée par le logiciel espion Pegasus a provoqué une onde de choc mais les mesures prises, notamment en France, ne sont pas à la hauteur dénonce un collectif de responsables d’ONG des droits humains ( dans le Monde)

 

Le « Projet Pegasus », collaboration sans précédent menée par plus de quatre-vingts journalistes de dix-sept médias dans dix pays et coordonnée par Forbidden Stories avec le soutien technique d’Amnesty International, a révélé comment des Etats ont ciblé des journalistes, des militants, des avocats et des personnalités politiques en ayant recours au logiciel espion Pegasus vendu par l’entreprise israélienne de cybersurveillance NSO Group.

Plusieurs journalistes français ont ainsi été illégalement espionnés – des infections confirmées par les autorités françaises – tandis que, selon les médias, le président Emmanuel Macron, le premier ministre d’alors, Edouard Philippe, et quatorze ministres faisaient partie des cibles potentielles en 2019.

Ces révélations ont marqué un véritable tournant et permis l’adoption de mesures fortes en termes de réglementation et de responsabilité. Ainsi, le ministère américain du commerce a placé NSO Group sur sa liste des entités aux cyberactivités malveillantes. Apple et WhatsApp ont tous deux intenté des poursuites contre NSO devant les tribunaux américains pour avoir ciblé leurs utilisateurs.

Par ailleurs, plusieurs enquêtes et procès ont été ouverts en Inde, au Mexique, en Pologne, en Belgique et en France, tandis que le Parlement européen a lancé une commission d’enquête sur l’utilisation de Pegasus et de logiciels espions de surveillance équivalents. Cela n’a cependant pas empêché la liste de personnes illégalement espionnées par le logiciel israélien de s’allonger depuis un an.

 

Autres développements inquiétants : selon le Citizen Lab, des outils d’espionnage d’autres entreprises seraient susceptibles d’être utilisés à des fins de surveillance illégale au regard du droit international. Dans le même temps, selon les médias, Israël ferait pression sur l’administration Biden aux Etats-Unis pour retirer NSO de la liste des entités aux cyberactivités malveillantes.

La France, pourtant directement concernée par les révélations Pegasus, est restée bien silencieuse sur le sujet. Si l’enquête ouverte en juillet 2021 vient tout juste d’être confiée à un juge d’instruction, Emmanuel Macron aurait négocié avec les autorités israéliennes l’exclusion des numéros français des cibles potentielles du logiciel espion de NSO Group. Une réponse qui ignore totalement la portée globale du scandale et des effets dévastateurs de ces technologies sur les droits humains.

Les gouvernements doivent cesser de penser que le problème est dû à une seule entité nuisible et reconnaître que les outils de réglementation actuels ne sont plus adaptés. Une culture de l’impunité propre à la surveillance numérique ciblée s’est développée et doit être combattue de toute urgence.

Nouvelles technologies : Métavers : espérance autant qu’illusion

Nouvelles technologies : Métavers : espérance autant qu’illusion

Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».

Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ­fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Climat : Des technologies mortelles

Climat : Des technologies mortelles

 

 

Le fait que les techniques de géo-ingénierie soient mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte le journaliste Stéphane Foucart dans le « Monde ».

 

Sur le front du climat, l’information la plus frappante de ces derniers jours n’est ni la sécheresse qui s’installe en France, ni la succession des canicules qui ont mis plusieurs semaines durant des dizaines de millions d’Indiens et de Pakistanais au seuil de l’invivable. Non : l’actualité climatique la plus inquiétante de ces dernières semaines est la création, au sein du Forum de Paris sur la paix, de la Commission mondiale sur la gouvernance des risques liés au dépassement climatique. Le lancement de ses travaux, le 17 mai, est passé inaperçu en France, où seul Le Monde, sous la plume d’Audrey Garric, en a rendu compte. Son mandat devrait pourtant retenir toute notre attention.

 

La quinzaine de membres de cette commission – anciens commissaires européens, chefs d’Etat ou ministres de pays du Nord et du Sud, diplomates de haut niveau, etc. – se pencheront sur des problématiques qui n’ont jusqu’ici jamais été examinées à un tel niveau. Cette fois, il est officiellement question de réfléchir aux conditions de déploiement de techniques de géo-ingénierie – c’est-à-dire des méthodes de modification climatique à grande échelle –, non seulement sur leur faisabilité, leurs bénéfices et leurs risques, mais aussi leur gouvernance.

Le simple fait que ces techniques soient aujourd’hui officiellement mises à l’agenda devrait susciter une profonde inquiétude. Cela signifie d’abord que l’espoir s’estompe de voir le climat terrestre préservé d’une dérive catastrophique. Ensuite, la radicalité de certaines solutions envisagées pour maintenir l’habitabilité d’une Terre surchauffée donne à comprendre la gravité de la situation. Certaines de ces technologies relèvent d’un cauchemar dystopique inimaginable il y a seulement quelques années. Elles sont désormais sur la table – pas encore celle de la diplomatie de la Convention-cadre des Nations unies sur les changements climatiques, mais au moins dans son antichambre.

« Si la réduction considérable et rapide des émissions doit être l’objectif central de toute politique climatique, l’action collective contre le [réchauffement] doit prendre en compte l’ensemble des réponses possibles pour réduire activement les risques, explique ainsi la nouvelle commission dans sa présentation. Ces options comprennent des mesures d’adaptation considérablement élargies pour réduire la vulnérabilité climatique, l’élimination du carbone pour retirer le dioxyde de carbone de l’atmosphère, et éventuellement la géo-ingénierie solaire pour refroidir la planète en réduisant le rayonnement solaire entrant. »

Climat : des technologies en cause

Climat : des  technologies en cause 

 

Le fait que les techniques de géo-ingénierie soient aujourd’hui officiellement mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte dans sa chronique Stéphane Foucart, journaliste au « Monde ».

 

Sur le front du climat, l’information la plus frappante de ces derniers jours n’est ni la sécheresse qui s’installe en France, ni la succession des canicules qui ont mis plusieurs semaines durant des dizaines de millions d’Indiens et de Pakistanais au seuil de l’invivable. Non : l’actualité climatique la plus inquiétante de ces dernières semaines est la création, au sein du Forum de Paris sur la paix, de la Commission mondiale sur la gouvernance des risques liés au dépassement climatique. Le lancement de ses travaux, le 17 mai, est passé inaperçu en France, où seul Le Monde, sous la plume d’Audrey Garric, en a rendu compte. Son mandat devrait pourtant retenir toute notre attention.

 

La quinzaine de membres de cette commission – anciens commissaires européens, chefs d’Etat ou ministres de pays du Nord et du Sud, diplomates de haut niveau, etc. – se pencheront sur des problématiques qui n’ont jusqu’ici jamais été examinées à un tel niveau. Cette fois, il est officiellement question de réfléchir aux conditions de déploiement de techniques de géo-ingénierie – c’est-à-dire des méthodes de modification climatique à grande échelle –, non seulement sur leur faisabilité, leurs bénéfices et leurs risques, mais aussi leur gouvernance.

Le simple fait que ces techniques soient aujourd’hui officiellement mises à l’agenda devrait susciter une profonde inquiétude. Cela signifie d’abord que l’espoir s’estompe de voir le climat terrestre préservé d’une dérive catastrophique. Ensuite, la radicalité de certaines solutions envisagées pour maintenir l’habitabilité d’une Terre surchauffée donne à comprendre la gravité de la situation. Certaines de ces technologies relèvent d’un cauchemar dystopique inimaginable il y a seulement quelques années. Elles sont désormais sur la table – pas encore celle de la diplomatie de la Convention-cadre des Nations unies sur les changements climatiques, mais au moins dans son antichambre.

 

« Si la réduction considérable et rapide des émissions doit être l’objectif central de toute politique climatique, l’action collective contre le [réchauffement] doit prendre en compte l’ensemble des réponses possibles pour réduire activement les risques, explique ainsi la nouvelle commission dans sa présentation. Ces options comprennent des mesures d’adaptation considérablement élargies pour réduire la vulnérabilité climatique, l’élimination du carbone pour retirer le dioxyde de carbone de l’atmosphère, et éventuellement la géo-ingénierie solaire pour refroidir la planète en réduisant le rayonnement solaire entrant. »

Société: Protéger les cerveaux des nouvelles technologies

 

Société: Protéger les cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Protéger nos cerveaux des nouvelles technologies

Protéger nos cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Connecteriez-vous votre cerveau ?

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Nouvelles technologies–L’aliénation par les machines parlantes ?

Nouvelles technologies–L’aliénation par les machines parlantes 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables. 

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol