Archive pour le Tag 'technologique'

TECH-ChatGPT : enjeu technologique et sociétal ?

-TECH-ChatGPT : enjeu technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

TECH-ChatGPT : un bond technologique et sociétal ?

-TECH-ChatGPT : un bond technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

ChatGPT : un saut technologique et sociétal ?

ChatGPT : un saut technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

ChatGPT : un tournant technologique ?

ChatGPT : un tournant technologique ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

Intelligence artificielle, révolution humaine ou technologique ?

Intelligence artificielle, révolution  humaine ou technologique ?

 

 Alors que les algorithmes colorent notre quotidien, persistent certaines réactions de rejet, ou fantasmes issus du réalisme de fictions qui confondent intelligence et domination. Par Emeric Kubiak, Head of Science chez AssessFirst dans la Tribune
 
Les algorithmes sont jugés plus sévèrement que les humains quand ils font une erreur. Aussi, s’il est malvenu de chercher à nier les dérives dangereuses issues de l’usage de certains algorithmes, il serait encore plus naïf de tous les condamner, au gré de sur-généralisations, de leur incompréhension, ou de la malhonnêteté de certains concepteurs estime Emeric Kubiak, Head of Science chez AssessFirstConsidérer les algorithmes à travers l’unique prisme d’une menace ou d’une déshumanisation se révèle ainsi une erreur d’attribution qui nous limite dans notre capacité à les comprendre comme catalyseur du potentiel et des synergies humaines. Dans le fond, les technologies ne changent pas réellement les sociétés : c’est leur réappropriation par l’Homme qui permet d’en faire de réelles évolutions. Cette fine nuance permet d’envisager la place centrale de chacun dans la construction d’un futur souhaité, où l’emportent les applications bénéfiques de l’IA.

La tendance à préférer les recommandations faites par une autre personne plutôt que par un système de recommandation (même plus performant) s’expliquerait par une illusion de mieux comprendre l’humain. Celle-ci émerge du fait que les gens projettent plus facilement leur compréhension intuitive d’un processus de décision vers une autre personne, plutôt que vers un algorithme. Toutefois, quand on leur demande d’expliquer la décision d’une autre personne, leur perception de compréhension diminue. Il en est de même pour notre compréhension des algorithmes : si nous pensons comprendre leur fonctionnement, nous faisons preuve d’une forte surconfiance issue d’un principe d’illusion de profondeur explicativeD’autres études au MIT montrent par ailleurs l’importance du style cognitif dans l’acceptation, ou l’aversion à l’IA.

Ces conclusions ne doivent pas laisser croire que les algorithmes ont toujours raison : elles invitent plutôt chacun à prendre la mesure de ses propres biais et crédulité, à développer son humilité intellectuelle, et à repenser ses convictions. Alors que l’explicabilité des algorithmes s’avère une nécessité, l’émancipation intellectuelle devient un levier essentiel pour amener chacun à se forger une compréhension éclairée de leur potentiel, au-delà des zones d’ombre et du sensationnalisme portés par certains lobbies. À tous les niveaux de la société, il apparaît ainsi essentiel de promouvoir la culture scientifique et de développer son esprit critique.

L’émergence de l’IA appelle d’autre part à renforcer les synergies collectives, et à briser les silos existants dans les entreprises ou dans l’éducation. Longtemps perçue comme une activité à l’exclusivité des profils ‘techniques’, force est de constater qu’un besoin de transversalité et de pluridisciplinarité est nécessaire, afin de  permettre à chacun de se sentir concerné par l’émergence de l’IA, et de développer des systèmes efficaces et impactant. Il est, en effet, encore – trop – courant et regrettable de voir émerger des gaps entre les perceptions de différents acteurs quant au potentiel de l’IA, ou de voir se créer des start-ups qui proposent d’automatiser certains processus métiers qu’elles ne maîtrisent pas. Les entreprises doivent ainsi se détacher d’une vision ‘product-first’, pour construire une vision ‘service’ qui considère l’utilisateur final comme un réel collaborateur et coconcepteur du service. Créer une harmonie entre les disciplines et les personnes, à travers une approche systémique de l’IA, de son développement, et de ses capacités, est alors un prérequis pour en jouir des bénéfices, tout en contrôlant les biais, grâce à l’apport d’expertises complémentaires et interactives. Certains écosystèmes mettent d’ailleurs déjà en place ce genre de collaborations pluridisciplinaires.

L’IA s’avère avant tout une révolution humaine, tant dans notre capacité à actualiser nos connaissances, que d’optimiser nos collaborations. Se focaliser sur de potentielles menaces, bien que légitime, c’est passer à côté d’une incroyable opportunité de nous faire évoluer individuellement et collectivement. Les débats ne doivent donc plus s’attarder à une dualité entre les Hommes et l’IA : qu’on le veuille ou non, la prévalence des algorithmes croît de manière exponentielle. Une réflexion plus stimulante est de vous interroger sur la place que vous voulez avoir dans la définition du monde de demain : rester passif et tolérer un monde décidé par d’autres, ou être proactif dans la coconstruction d’un monde souhaité ?

 

Qu’est-ce qu’un algorithme ?

D’après le site  univesitaire «  the conversation » 

 

Le mot « algorithme » est utilisé couramment dans la presse pour désigner le fonctionnement opaque des moteurs de recherche et des réseaux sociaux.

Mais de quoi parlons-nous exactement ? Qu’est-ce qu’un algorithme ? Cette notion a traversé l’histoire, depuis Euclide jusqu’aux algorithmes des GAFAM. Les algorithmes peuvent-ils résoudre n’importe quel problème ? Quelles garanties a-t-on sur leur comportement ? Quels sont leurs impacts sociétaux ?

Au IXe siècle, en Perse

L’étymologie fait remonter l’histoire des algorithmes au savant persan Muhammad Ibn Mūsā al-Khuwārizmī, qui aux alentours de l’an 800 a publié les premiers manuels de résolution d’équations. Ses méthodes, à l’origine de l’algèbre, concernent typiquement des problèmes de calcul pratiques : des questions d’héritage ou de mesure.

Ses ouvrages sont traduits en latin au cours du XIIe siècle et popularisés par des personnalités telles que le mathématicien italien Leonardo Fibonacci. C’est son nom, latinisé en « algoritmi » ou « algorismi », qui est à l’origine du terme « algorithme ». Près d’un millénaire avant lui, Euclide avait décrit dans les Éléments une méthode pour calculer le plus grand diviseur commun de deux nombres.

Au XXe siècle, la notion d’algorithme construit des branches des mathématiques

Il faut pourtant attendre le début du XXe siècle pour que la notion d’algorithme soit formalisée. Dans son célèbre discours au deuxième congrès international des mathématiciens à Paris en 1900, le mathématicien allemand David Hilbert propose 23 problèmes ouverts, 23 défis à relever pour la communauté mathématique, dont les énoncés auront une influence considérable sur le développement des mathématiques dans les décennies suivantes. Le dixième problème porte sur l’existence d’une « méthode par laquelle, au moyen d’un nombre fini d’opérations, on pourra déterminer l’existence d’une solution en nombres entiers à une équation polynomiale à coefficients entiers » (les équations « Diophantiennes »). C’est bien de l’existence d’un algorithme qu’il s’agit.

C’est par les travaux fondateurs d’Alan Turing et d’Alonzo Church, entre autres, que les algorithmes deviennent des objets mathématiques à part entière. Dans son article de 1936, Alan Turing donne sa définition de la « calculabilité » d’une fonction : il doit exister une machine qui donne sa valeur en un nombre fini d’étapes élémentaires, guidées par un système de transitions et le contenu d’un ruban, qui joue le rôle de mémoire. C’est la célèbre « machine de Turing ».

Alan Turing comprend le lien entre la calculabilité d’une fonction et le caractère démontrable d’une assertion mathématique dans un système d’axiomes. L’informatique théorique devient une branche des mathématiques.

On circonscrit la puissance des algorithmes, et certains problèmes sont démontrés indécidables : aucun algorithme n’existe pour les résoudre. En 1970, Julia Robinson et Youri Matiiassevitch résolvent finalement le dixième problème de Hilbert : la résolution des équations diophantiennes est un problème indécidable !

Au cours des années 1970, on établit des hiérarchies de problèmes en fonction du temps et de l’espace qu’un algorithme requiert pour les résoudre : c’est la théorie de la complexité.

Comment se présente un algorithme ?

Les algorithmes sont souvent comparés à des recettes de cuisine : une suite d’instructions précises permettant d’obtenir un résultat en un nombre fini d’étapes.

Cette image est juste, mais occulte sans doute un aspect fondamental, le fait qu’un algorithme reçoit des données à traiter (nombres, texte, relations), et certaines instructions sont conditionnelles : les étapes suivies dépendent de ces données, et les exécutions peuvent suivre un cours difficilement prévisible. On peut donner ces instructions sous différentes formes bien définies (organigramme, langage de description), ou même, avec les précautions de rigueur, en langage naturel.

Nous avons tous appris l’algorithme de multiplication de deux nombres à l’école primaire, sans l’aide d’un formalisme avancé. Les algorithmes sont en principe destinés à être mis en œuvre sous forme de programme, dans un langage de programmation compréhensible par un ordinateur. Mais l’algorithme existe indépendamment de cette traduction.

Pour cerner la portée des algorithmes dans nos vies modernes, il faut distinguer leurs familles

Pour mieux comprendre les enjeux et les défis actuels autour des algorithmes, il est important de cerner leur portée et les propriétés que nous sommes à même de garantir sur leurs résultats et leurs comportements. Une typologie des algorithmes est indispensable à cette compréhension.

On peut d’abord distinguer une famille d’algorithmes tellement omniprésents dans notre quotidien qu’ils y sont presque devenus invisibles. Il s’agit d’algorithmes exacts pour des tâches parfaitement bien définies, dont le résultat est facilement vérifiable : multiplier deux nombres, trier une liste de noms par ordre alphabétique, stocker et retrouver efficacement une information, effectuer la conversion d’un signal analogique vers un signal numérique, interpréter un programme.

Le boulier, un instrument d’aide au calcul permettant de faire des additions, soustractions, multiplications et divisions ainsi que l’extraction de racine carrée. HB

Il s’agit là des algorithmes fondamentaux étudiés depuis les balbutiements des sciences informatiques. Ils ne font pas moins pour autant l’objet de recherches actuelles, tant des mystères subsistent autour de la complexité de certaines opérations fondamentales. La complexité exacte du problème de multiplication de deux nombres entiers, par exemple, est d’un point de vue théorique encore ouverte : nous sommes actuellement incapables de démontrer que la multiplication prend nécessairement plus de temps que l’addition ! Le meilleur algorithme de multiplication connu n’a été publié que très récemment.

Les algorithmes d’optimisation constituent une deuxième famille importante. Ils résolvent des problèmes dans lesquels on cherche à identifier des paramètres ou une configuration qui maximise ou minimise une valeur, appelée « fonction objectif ». Les applications concrètes consistent par exemple en la recherche d’un chemin le plus court entre deux points, l’ordonnancement des phases d’un projet pour en minimiser la durée, le choix des emplacements d’antennes pour couvrir à moindre coût une zone donnée, ou celui des paramètres des routeurs d’un réseau pour en minimiser la latence.

Les objectifs des algorithmes de ces deux familles sont quantifiables et leurs résultats sont mathématiquement garantis. Les méthodes formelles permettent de vérifier rigoureusement les propriétés d’un algorithme. Les algorithmes d’optimisation linéaire sont bien compris.

Une troisième famille d’algorithmes, plus spécialisés, est celle des algorithmes cryptographiques, destinés à garantir la sécurité des communications et transactions. Cette sécurité repose souvent sur des hypothèses liées à la complexité de problèmes algorithmiques. Le célèbre algorithme RSA (du nom de ses inventeurs : Ronald Rivest, Adi Shamir et Leonard Adleman), par exemple, fait reposer la sécurité des transactions commerciales électroniques sur l’hypothèse qu’il n’existe pas d’algorithme efficace pour décomposer un nombre en ses facteurs premiers.

Certaines procédures issues des recherches en intelligence artificielle, en revanche, ne se soumettent pas facilement à une analyse rigoureuse.

Les algorithmes changent de nature avec l’intelligence artificielle

Parmi ceux-ci, les algorithmes de classification cherchent à placer les données reçues en entrée dans une catégorie correspondant à une réalité extérieure. Un algorithme de reconnaissance d’animaux, par exemple, recevra en entrée une image sous forme d’un tableau de pixels, et devra déterminer si cette image représente plutôt un chat ou un dauphin. Cette tâche n’est pas formellement bien définie : on peut probablement trouver une image ambiguë pour laquelle les réponses fournies par des humains pourraient être différentes. Le caractère correct de ces algorithmes dépend d’une réalité extérieure, qui n’est pas formalisée, et leur exactitude, ou précision, ne peut être établie qu’expérimentalement.

De la même manière, les algorithmes de prédiction cherchent à anticiper l’évolution de certaines quantités mesurées dans le monde physique, ou des comportements dans une population. Ils sont utilisés par exemple en finance pour prédire l’évolution des marchés, ou en marketing, pour présenter aux visiteurs d’un site web les produits ou publicités les plus susceptibles d’attirer leur attention. La pertinence des résultats est ici encore validée empiriquement, et non mathématiquement. À tel point qu’en 2006, la société Netflix a lancé un concours pour améliorer les performances de son algorithme de prédiction d’évaluations de films, avec un prix d’un million de dollars à la clé.

Le développement des ces algorithmes fait massivement appel à des modèles probabilistes, mais aussi à des structures difficilement analysables rigoureusement. C’est le cas en particulier pour les algorithmes de réseaux de neurones artificiels utilisés dans ce qu’on appelle désormais l’« apprentissage profond », en référence au nombre de couches utilisées dans ces réseaux. Ces réseaux encodent implicitement la mémoire des données fournies lors d’une phase d’apprentissage, et permettent de classifier de nouvelles données en entrée.

Que pouvons-nous exiger des algorithmes ?

L’omniprésence des algorithmes fait légitimement l’objet de craintes. Quelles sont les garanties que nous pouvons exiger ?

Un premier type de garantie porte sur l’efficacité. Combien de temps doit-on attendre pour avoir une réponse ? De quelle quantité de mémoire doit-on disposer ? Ces questions sont bien étudiées et ont des formulations et des réponses rigoureuses, mais partielles. Les lacunes dans notre compréhension de la complexité algorithmique laissent en particulier ouverte la possibilité d’attaques inédites mettant en péril la cryptographie basée sur l’algorithme RSA.

La question traditionnelle des performances est intimement liée aux questions de consommation de ressources, qui ont des impacts écologiques. On peut donner à cette question un cadre plus large, et s’interroger sur les ressources consommées par les logiciels, les serveurs. Dans le domaine des algorithmes cryptographiques, certains mécanismes au cœur du fonctionnement des cryptomonnaies, en particulier le principe de la « preuve de travail », ont un impact énergétique dramatique.

Lorsque les objectifs sont facilement vérifiables, comme dans le cas d’un algorithme de tri, ou quantifiés explicitement, comme dans le cas d’un algorithme d’optimisation, il existe une mesure objective de la qualité de la solution. Dans le cas des algorithmes d’optimisation, cependant, le choix de la fonction objectif, la quantité que l’on optimise, peut avoir un impact humain considérable.

Des questions d’éthique

Les questions d’équité et de transparence des algorithmes de classification et de prédiction deviennent pressantes. Dans un ouvrage devenu classique, Cathy O’Neil alerte sur les dérives des systèmes de prise de décision dans les domaines de la justice, de l’action policière, des assurances, de l’évaluation des enseignants, entre autres.

L’algorithme de Gale-Shapley, utilisé par la plate-forme Parcoursup satisfait des propriétés d’optimalité, mais garantit également qu’un comportement stratégique de la part des postulants est impossible.

Les méthodes d’apprentissage supervisé pour la classification consistent classiquement en une collection d’exemples, de paires « entrée-sortie », dont on espère qu’ils peuvent être généralisés, de façon qu’une nouvelle donnée en entrée puisse être associée à une réponse en sortie qui fasse sens. En ne fournissant que des exemples connus lors de ces phases d’apprentissage, on inculque au système tous les biais présents de facto dans les exemples dont on dispose, et l’on apprend ainsi à la machine à les reproduire. C’est le thème du documentaire Coded Bias, relatant l’expérience d’une étudiante du MIT avec les algorithmes de reconnaissance faciale.

Le caractère parfois inexplicable des résultats termine d’expliquer le glissement sémantique récent du mot algorithme : de simple méthode de calcul, l’algorithme est perçu comme une boîte noire omnipotente, dont le fonctionnement interne est inaccessible, et dont les réponses finissent par se substituer à la réalité. Cette perception s’explique notamment par la résurgence des méthodes de réseaux de neurones, dont la complexité défie toute analyse formelle. Les succès expérimentaux dans les tâches confiées aux réseaux profonds sont indéniables et fascinants. Mais certaines expériences mettent en évidence leur fragilité : des chercheurs ont montré qu’en modifiant de manière imperceptible quelques pixels bien choisis d’une image, on peut changer du tout au tout la réponse fournie. En l’absence d’explicitation de la réponse (« c’est un chat, car il a des oreilles pointues et des moustaches »), les questions de confiance et de responsabilités se posent.

La communauté de recherche en intelligence artificielle et en apprentissage automatique s’est emparée des questions d’équité et d’explicabilité : le développement de méthodes d’apprentissage incluant des critères d’équité (fairness in AI) est en plein essor, tandis que le domaine de l’intelligence artificielle « explicable » (explainable AI) traite de la justification des résultats et de la confiance.

Al-Khuwārizmī aurait sûrement été surpris de la postérité de son patronyme !

Environnement: « La ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total »

Environnement: « La ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total »

 

La clé de la transition énergétique ne peut être laissée aux seules mains des maires, même si la ville est aujourd’hui la principale émettrice des gaz à effet de serre, analyse dans une tribune au « Monde » Albert Levy, architecte urbaniste. Il souligne la nécessité d’une politique relevant du pouvoir central.

 

Un article intéressant mais qui aborde bout des lèvres la question de l’aménagement du territoire comme si la super concentration était une donnée incontournable. La vraie question est en effet celle de la répartition harmonieuse de la population sur l’ensemble du territoire et de l’équilibre homme nature NDLR

 

Dans son dernier rapport annuel, en 2021, l’Autorité environnementale (AE) a livré un diagnostic accablant en concluant que la transition écologique n’a pas encore été vraiment amorcée en France. Après le Haut Conseil pour le climat, l’AE a rappelé qu’à côté des politiques d’atténuation des émissions de gaz à effet de serre (GES) l’adaptation au dérèglement climatique est également un impératif majeur pour les villes. A ce sévère constat au niveau national s’ajoute celui de la Chambre régionale des comptes d’Ile-de-France pour la région parisienne, notamment le bilan de l’action de la Ville de Paris en matière de climat depuis 2004, qui montre l’écart entre les objectifs annoncés et les résultats obtenus. Le plan climat de 2004 visait la réduction de 75 % des émissions de GES en 2050, par rapport à 2004, avec un objectif intermédiaire de 25 % en 2020. Le chiffre de 20 % a été atteint. Sur 25 % d’énergies renouvelables prévus pour 2020 (10 % en 2004), seuls 18 % ont été obtenus, et pour la sobriété énergétique, sur 25 % d’économie visés, 5 % seulement ont été atteints. Les services de la Mairie ont eux-mêmes été peu exemplaires : les émissions de GES, dont la baisse programmée était de 30 %, n’ont reculé que de 9 %, de même l’éclairage public de 3,5 % au lieu des 30 % pronostiqués. On est loin de la trajectoire vers la ville neutre en carbone avec 100 % d’énergies renouvelables pour 2050, conclut le rapport de la Chambre régionale, qui reste pessimiste sur la possibilité d’atteindre cet objectif.

Cette politique vers une économie « zéro pétrole », vers une « ville postcarbone », implique de repenser totalement la ville existante et son fonctionnement, voire l’aménagement du territoire, et une planification écologique qui doit articuler différentes échelles dans sa mise en œuvre. Se passer du « pétrole énergie » pour se chauffer, s’éclairer, cuisiner, communiquer, travailler… en le remplaçant par une électricité 100 % d’origine renouvelable (sans énergie nucléaire ?), se déplacer autrement (sans voiture thermique), transporter voyageurs et marchandises en utilisant des carburants non fossiles (batterie électrique, biocarburant, hydrogène « vert »…), réduire la facture énergétique en isolant/rénovant tout le parc immobilier, résidentiel et tertiaire pour atteindre la neutralité carbone restent, en effet, un énorme défi écologique. Energie, transport, pétrochimie… la ville postcarbone de demain exige un bouleversement technologique, économique, sociétal et urbanistique total. Dans ce cadre, il faudra une planification qui coordonne les différentes politiques sectorielles indispensables pour sortir, progressivement et sans choc, des énergies fossiles (voir, par exemple, les travaux du think tank The Shift Project).

Le patriotisme technologique d’Emmanuel Macron est dépassé

 Le patriotisme technologique d’Emmanuel Macron est dépassé

 

 

Jean-Baptiste Fressoz, Historien, chercheur au CNRS, critique dans le monde le patriotisme techno de Macron (extrait)

 

 

A l’issue d’un quinquennat très « Silicon Valley », « French Tech » et « start-up », on en revient aux fondamentaux du patriotisme technologique français : discours le 17 septembre devant les caméras pour célébrer les 40 ans du TGV avec, en arrière-plan, la proue du dernier modèle, flambant neuf. Le 1er septembre, Macron avait confié au magazine Challenges son panthéon technologique : « Le TGV, Ariane, le Concorde et le nucléaire. »

 

Voici donc les techniques « nationales » qu’il admire et auxquelles il faudrait, affirme-t-il, donner « des successeurs ». C’est à cela que doivent servir les milliards d’euros du plan de relance, et certainement pas à financer l’isolation des bâtiments ou la nécessaire mais peu spectaculaire rénovation ferroviaire.

Cet inventaire de machines de pointe, puissantes et rapides – qui paraît tout droit sorti de la scène érotique assez cocasse du dernier OSS 117 – a cela d’étrange qu’il est difficile d’y trouver une technologie qui ait rendu les Français plus prospères.

Le cas le plus évident est celui du Concorde. Si l’on accuse parfois la jalousie américaine d’avoir tué dans l’œuf « le bel oiseau franco-anglais » sous prétexte de nuisances sonores, son histoire est en fait celle d’un désastre économique annoncé. Comme l’ont montré récemment les travaux de Thomas Kelsey au King’s College de Londres, le Treasury (ministère des finances) britannique s’est opposé avec constance à ce projet sans débouché commercial.

Les gouvernements successifs persévérèrent pour diverses raisons – ne pas fâcher les Français qui tenaient la clé de leur entrée à la CEE, ne pas se mettre à dos les syndicats, ne pas froisser le patriotisme des électeurs. Et malgré la propagande pesante sur la « prouesse technologique », le Concorde fut un formidable fiasco. Du fait de sa consommation extravagante, le poids du carburant embarqué était supérieur à celui de l’appareil et égal à dix fois sa charge utile.

Les coûts d’opération étaient si élevés qu’il fallait le vendre un cinquième de son prix de production pour que British Aviation et Air France acceptent de le faire voler ; les autres compagnies s’y refusèrent. Même à 8 000 euros le billet Paris-New York, l’argent du contribuable subventionnait largement les fantasmes de vitesse de quelques fortunés.

Société-Espionnage et Pégasus: le risque de la dépendance technologique

Société-Espionnage et Pégasus: le risque de la dépendance  technologique

 

Pour Alain Bauer , criminologue,« Cette affaire indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies » (extrait ,dans l’Opinion)

 

Les informations fournies par le journalisme de révélation concernant le logiciel Pegasus du Groupe NSO ont provoqué de nombreuses réactions indignées, souvent à juste titre, parfois relevant d’un registre que Pandore avait dû oublier dans un recoin de son bagage, l’hypocrisie.

Depuis l’ouverture des lettres à la vapeur par les ancêtres des renseignements généraux dans les wagons postaux des chemins de fer et l’utilisation des « écouteurs » installés près des demoiselles du téléphone, tout ce qui s’imprime se copie et tout ce qui se communique s’écoute. Etats d’abord, au nom de leur souveraineté nationale, gouvernements ensuite au nom de leur durabilité politique, très grandes entreprises enfin au nom de leurs enjeux économiques… Les opérations d’interception et de renseignement sont aussi vieilles que l’humanité.

Sous-traitance. Pour autant, l’affaire Pegasus indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies. Depuis les révélations Snowden (lui-même consultant privé pour la NSA), on a pu constater l’importance de la sous-traitance des opérations de sécurité à des opérateurs plus ou moins privés. Il en est ainsi depuis toujours avec les armées privées, les mercenaires d’antan étant avantageusement remplacés par des forces supplétives comme Executive Outcome du temps de l’ancienne Afrique du Sud ou KMS pour le Royaume-Uni, plus récemment Blackwater (devenu Academi) pour les États-Unis, Wagner pour la Russie, HXZXA pour la Chine, Amarante pour la France.

Ce qui semble avoir bouleversé les anciens équilibres, c’est l’apparition d’opérateurs technologiques de pointe, souvent issus des services publics de renseignement, commercialisant des outils intrusifs à la hauteur des enjeux sécuritaires d’une époque marquée par le terrorisme et le retour des tensions internationales. Palantir en fut et en reste l’expression la plus visible, en termes d’exploitation et d’analyse du renseignement. Mais d’autres opérateurs se sont développés dans le secteur hautement intrusif de l’interception non judiciaire, bien mieux maîtrisée par les pouvoirs publics.

«  Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux  »

Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux : HackingTeam, GammaGroup, Ability, Verint, Intellexa et des dizaines d’autres sont positionnés sur ces marchés plus ou moins contrôlés par les Etats. Ils en profitent pour assurer une offre technologique mondiale qui sert aussi leurs intérêts souverains, de près comme de loin.

Il conviendrait donc désormais, outre le renforcement des outils de contrôle que sont la Commission nationale de contrôle des techniques de renseignement (CNCTR) ou la Délégation parlementaire au renseignement (DPR) pour les utilisations nationales, que toute exportation de logiciels de surveillance fasse l’objet d’une information préalable des outils réglementaires et parlementaires mis en place depuis la loi Renseignement imposée par le président Sarkozy sur une idée initialement développée par Michel Rocard.

De plus, afin d’éviter un affaiblissement de souveraineté et afin de ne pas se trouver en dépendance technologique, il conviendrait que l’Etat intervienne rapidement afin de ne pas laisser à des opérateurs étrangers le contrôle d’entreprises françaises affaiblies par des mesures judiciaires en cours visant des exportations de technologies pourtant autorisées vers des pays dont la conception des droits humains semble plus que discutable.

Les questions de renseignement méritent plus que des imprécations, des incantations et des lamentations. La justice doit faire son travail en établissant les responsabilités réelles des opérations menées. Le gouvernement doit faire le sien en sécurisant ses réseaux de communication (cryptage obligatoire, numéro virtuel…) et surtout en mettant à l’abri les développeurs nationaux qui seront les garants de la souveraineté numérique.

Alain Bauer est professeur de criminologie au Conservatoire National des Arts et Métiers, New York et Shanghai. Il publiera prochainement un  «  Dictionnaire des espionnes et des espions  » (Gründ).

Espionnage-Pégasus: le risque de la dépendance technologique

Espionnage-Pégasus: le risque de la dépendance  technologique

 

Pour Alain Bauer , criminologue,« Cette affaire indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies » (extrait ,dans l’Opinion)

 

Les informations fournies par le journalisme de révélation concernant le logiciel Pegasus du Groupe NSO ont provoqué de nombreuses réactions indignées, souvent à juste titre, parfois relevant d’un registre que Pandore avait dû oublier dans un recoin de son bagage, l’hypocrisie.

Depuis l’ouverture des lettres à la vapeur par les ancêtres des renseignements généraux dans les wagons postaux des chemins de fer et l’utilisation des « écouteurs » installés près des demoiselles du téléphone, tout ce qui s’imprime se copie et tout ce qui se communique s’écoute. Etats d’abord, au nom de leur souveraineté nationale, gouvernements ensuite au nom de leur durabilité politique, très grandes entreprises enfin au nom de leurs enjeux économiques… Les opérations d’interception et de renseignement sont aussi vieilles que l’humanité.

Sous-traitance. Pour autant, l’affaire Pegasus indique un processus de rupture structurelle dans la maîtrise des technologies de l’interception et dans le contrôle des exportations de ces technologies. Depuis les révélations Snowden (lui-même consultant privé pour la NSA), on a pu constater l’importance de la sous-traitance des opérations de sécurité à des opérateurs plus ou moins privés. Il en est ainsi depuis toujours avec les armées privées, les mercenaires d’antan étant avantageusement remplacés par des forces supplétives comme Executive Outcome du temps de l’ancienne Afrique du Sud ou KMS pour le Royaume-Uni, plus récemment Blackwater (devenu Academi) pour les États-Unis, Wagner pour la Russie, HXZXA pour la Chine, Amarante pour la France.

Ce qui semble avoir bouleversé les anciens équilibres, c’est l’apparition d’opérateurs technologiques de pointe, souvent issus des services publics de renseignement, commercialisant des outils intrusifs à la hauteur des enjeux sécuritaires d’une époque marquée par le terrorisme et le retour des tensions internationales. Palantir en fut et en reste l’expression la plus visible, en termes d’exploitation et d’analyse du renseignement. Mais d’autres opérateurs se sont développés dans le secteur hautement intrusif de l’interception non judiciaire, bien mieux maîtrisée par les pouvoirs publics.

«  Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux  »

Les logiciels NSO, nés dans les boutiques de l’unité 8200 de l’armée israélienne, sont loin d’être les seuls disponibles sur les marches commerciaux : HackingTeam, GammaGroup, Ability, Verint, Intellexa et des dizaines d’autres sont positionnés sur ces marchés plus ou moins contrôlés par les Etats. Ils en profitent pour assurer une offre technologique mondiale qui sert aussi leurs intérêts souverains, de près comme de loin.

Il conviendrait donc désormais, outre le renforcement des outils de contrôle que sont la Commission nationale de contrôle des techniques de renseignement (CNCTR) ou la Délégation parlementaire au renseignement (DPR) pour les utilisations nationales, que toute exportation de logiciels de surveillance fasse l’objet d’une information préalable des outils réglementaires et parlementaires mis en place depuis la loi Renseignement imposée par le président Sarkozy sur une idée initialement développée par Michel Rocard.

Lamentations. De plus, afin d’éviter un affaiblissement de souveraineté et afin de ne pas se trouver en dépendance technologique, il conviendrait que l’Etat intervienne rapidement afin de ne pas laisser à des opérateurs étrangers le contrôle d’entreprises françaises affaiblies par des mesures judiciaires en cours visant des exportations de technologies pourtant autorisées vers des pays dont la conception des droits humains semble plus que discutable.

Les questions de renseignement méritent plus que des imprécations, des incantations et des lamentations. La justice doit faire son travail en établissant les responsabilités réelles des opérations menées. Le gouvernement doit faire le sien en sécurisant ses réseaux de communication (cryptage obligatoire, numéro virtuel…) et surtout en mettant à l’abri les développeurs nationaux qui seront les garants de la souveraineté numérique.

Alain Bauer est professeur de criminologie au Conservatoire National des Arts et Métiers, New York et Shanghai. Il publiera prochainement un  «  Dictionnaire des espionnes et des espions  » (Gründ).

Bank of America: Vers tout technologique

 Bank of America : vers un tout technologique

 

Un article du Wall Street Journal prévoit qu’environ 85 % des particuliers devraient utiliser une combinaison de services bancaires physiques et numériques dans les années à venir.

Les responsables de la technologie de Bank of America souhaitent lancer de nouvelles initiatives dans les années à venir en s’appuyant sur l’analyse de données, les réseaux mobiles 5G et éventuellement l’impression 3D, la demande pour les services numériques de la banque ayant grimpé en flèche pendant la pandémie.

La banque a consacré environ 3 milliards de dollars par an aux projets de nouvelles technologies au cours des dix dernières années et le budget devrait être porté à 3,5 milliards de dollars cette année, selon l’entreprise. Beaucoup de ces initiatives ont abouti à la création de services numériques, qui ont été très demandés lors de la pandémie.

Pendant les périodes de confinements et de restrictions des contacts physiques, la banque basée à Charlotte, en Caroline du Nord, dit avoir observé une hausse du nombre de clients utilisant des services numériques tels que son assistant virtuel Erica, son service de virement en ligne Zelle et son système de dépôt de chèques par mobile.

Les responsables commerciaux et technologiques de la banque ont évoqué la croissance du digital au sein de l’établissement lors d’un événement virtuel lundi et ont déclaré qu’ils exploraient de nouveaux moyens d’innover et de répondre à la demande de technologie.

« La demande pour le numérique est désormais un élément avec lequel compter. La question est donc comment servir les clients de davantage de façons », a établi Aditya Bhasin, directeur des systèmes d’information (DSI) de Bank of America pour les particuliers, les petites entreprises et la gestion de patrimoine.

L’utilisation des services numériques a progressé dans le secteur bancaire pendant la pandémie, en partie parce que certaines agences étaient fermées pour limiter la propagation du virus, a rappelé Jason Malo, analyste en chef pour la société de recherche en technologie Gartner.

La tendance devrait perdurer, mais cela ne signifie pas que les clients cesseront d’aller à la banque une fois la pandémie terminée, selon Jason Malo. Environ 85 % des particuliers devraient utiliser une combinaison de services bancaires physiques et numériques dans les années à venir, a-t-il expliqué. Cela veut dire, a-t-il conclu, que les banques devraient continuer à développer des outils et services physiques et numériques.

Erica, l’assistant virtuel de la banque, compte plus de 20 millions d’utilisateurs à ce jour, contre environ 10 millions fin 2019, selon l’entreprise. Cet outil basé sur l’IA peut aider les clients à suivre leurs dépenses récurrentes, recevoir des rappels de factures, consulter le solde de leur compte et obtenir un aperçu hebdomadaire de leurs dépenses, entre autres fonctionnalités.

L’utilisation de Zelle a également augmenté au premier trimestre, avec 90 % des versements commerciaux et d’entreprises effectués par le biais de ce service. Selon les dirigeants de la banque, l’activité numérique chez les adultes d’environ 55 ans et plus est celle qui a connu la plus forte augmentation pendant la pandémie.

Pour Cathy Bessant, directrice des opérations et de la technologie chez Bank of America, l’une des avancées les plus prometteuses est l’impression en 3D, un processus permettant d’imprimer les objets en trois dimensions. Cette technologie peut être utilisée dans le cadre d’une méthode de fabrication répartie reliée par la technologie, qui éviterait à la banque de se reposer sur un seul site pour fabriquer les produits, a-t-elle déclaré. Par exemple, a-t-elle expliqué, l’impression 3D pourrait servir à imprimer des cartes bancaires au cas où l’un des sites de production de Bank of America doive rester fermé en raison d’une catastrophe naturelle. « Cette technologie est bien plus importante que ne le pensent la plupart des gens », a souligné Cathy Bessant.

La banque n’a pas encore trouvé de cas d’utilisation claire pour la blockchain, la technologie de stockage d’information derrière les cryptomonnaies, a indiqué Cathy Bessant.

Lors de l’événement, Cathy Bessant et David Reilly, DSI de la division Global Banking and Markets de la banque, se sont également exprimés au sujet du potentiel de la 5G et de sa capacité à relier les zones isolées à Internet.

Cette technologie promet d’accroître les vitesses de téléchargement de vidéo sur téléphone mobile et de faire travailler plus vite et plus efficacement des appareils comme des drones ou des casques de réalité virtuelle.

« Cela ouvre de nouvelles possibilités d’applications, de vidéo, de nouvelles façons d’interagir avec les clients », a commenté David Reilly.

Bank of America concentre également ses efforts sur l’utilisation de l’analyse des données et des techniques d’intelligence artificielle pour continuer de tirer des informations pertinentes des quantités massives de données, tout en protégeant la vie privée des individus, a-t-il expliqué. « Les données restent sans doute la plus grosse ressource inexploitée dans des entreprises comme la nôtre », a conclu David Reilly.

Les initiatives en matière d’analyse des données pourraient aider la banque à mieux adapter ses conseils financiers à chacun de ses 66 millions de clients particuliers et petites entreprises, au-delà de ce que fait actuellement l’assistant virtuel, Erica. « Agir de manière personnelle et intime pour nos clients, c’est ça notre avenir », a résumé Nikki Katz, responsable de la conception numérique de la banque.

(Traduit à partir de la version originale en anglais par Astrid Mélite)

Une alliance contre la percée technologique chinoise

Une alliance contre la percée technologique chinoise

 

iseUn article du Wall Street Journal explique que les États-Unis entendent créer une alliance internationale pour lutter contre la percée technologique chinoise

 

Le président Joe Biden décrit les relations entre les Etats-Unis et la Chine comme un conflit de valeurs entre démocratie et autocratie.

Mais cette rhétorique masque une approche pragmatique qui consiste à réunir des groupes de pays pour travailler ensemble sur la technologie. L’objectif est de garder de l’avance sur la Chine dans les domaines des semi-conducteurs, de l’intelligence artificielle et d’autres avancées qui devraient définir l’économie et l’armée de demain.

Des conversations préliminaires ont commencé avec des alliés de Wahington, mais ces efforts devraient prendre des mois, selon des hauts responsables de l’administration.

Les Etats-Unis prévoient d’organiser différentes alliances en fonction des questions, a précisé un haut responsable de l’administration, qui a décrit l’initiative comme modulaire. Les différents groupements incluraient généralement les puissances industrielles du G7 et quelques autres pays. L’idée est généralement appelée Democracy 10 ou Tech 10

La stratégie comporte des éléments offensifs et défensifs. En combinant leurs forces, les Etats-Unis et leurs alliés peuvent dépenser beaucoup plus que la Chine, dont le budget de recherche et développement est désormais presque égal à celui des Américains. Ces alliances peuvent également coordonner des politiques pour refuser à Pékin les technologies dont elle a besoin afin de devenir un leader mondial.

« Nous avons un fort intérêt à nous assurer que les démocraties technologiques s’unissent plus efficacement de façon à ce que ce soit nous qui façonnions ces normes et ces règles », a déclaré le secrétaire d’Etat Antony Blinken lors de son audience de confirmation.

Les Etats-Unis prévoient d’organiser différentes alliances en fonction des questions, a précisé un haut responsable de l’administration, qui a décrit l’initiative comme modulaire. Les différents groupements incluraient généralement les puissances industrielles du G7 et quelques autres pays. L’idée est généralement appelée Democracy 10 ou Tech 10.

Une alliance centrée sur l’intelligence artificielle, par exemple, pourrait inclure Israël, dont les chercheurs sont considérés comme des leaders du domaine. Une autre impliquant le contrôle des exportations intégrerait sans doute l’Inde, pour s’assurer que la Chine ne puisse pas importer certaines technologies. Pour encourager les pays craignant d’offenser Pékin à rejoindre ces alliances, l’administration pourrait s’abstenir d’annoncer leur participation, a indiqué le haut responsable.

Selon les personnes ayant travaillé sur ce concept, il est crucial que les alliances restent flexibles et évitent la bureaucratie. « Créer une nouvelle institution internationale impliquerait de grandes annonces sans actions à la clé », estime Anja Manuel, une ancienne responsable de l’administration Bush. « Avec la technologie, il faut rester agile. »

Parmi les domaines considérés comme mûrs pour des alliances, on peut citer le contrôle des exportations, les normes techniques, l’informatique quantique, l’intelligence artificielle, les biotechnologies, les télécommunications en 5G et les règles gouvernant la technologie de surveillance. La liste doit être réduite, selon des experts en technologie. Poursuivre trop de pistes prendrait trop de temps et serait trop contraignant pour les responsables du gouvernement.

La technologie de semi-conducteurs est en tête de la liste de l’administration, car les microprocesseurs alimentent l’économie moderne. La Chine est le plus grand marché, mais plus de 80 % des puces, particulièrement les modèles avancés, sont soit importées, soit produites en Chine par des entreprises étrangères.

Pékin a dépensé des dizaines de milliards de dollars au cours des dernières décennies pour tenter d’établir une filière nationale majeure, mais le pays reste en retard sur ses concurrents occidentaux. L’administration Biden ne veut pas que cela change.

Sous l’administration Trump, les Etats-Unis ont travaillé avec les Pays-Bas pour bloquer la vente d’équipements de fabrication de semi-conducteurs néerlandais à la plus importante fonderie de semi-conducteurs chinoise, Semiconductor Manufacturing International Corporation (Smic), ce qui aurait pu aider la Chine à produire des puces de pointe. Le département du Commerce, sous Donald Trump, avait également restreint la vente d’équipement de production de puces à Smic.

L’administration Biden assure le suivi de cette stratégie. En février, le conseiller national à la sécurité, Jake Sullivan, a parlé à son homologue néerlandais, Geoffrey van Leeuwen, à propos de la Chine et de la technologie avancée entre autres choses, selon un communiqué de la Maison Blanche.

Les technologues décrivent l’équipement de production de semi-conducteurs comme une technologie de goulot d’étranglement car elle reste dominée par trois pays seulement, les Etats-Unis, le Japon et les Pays-Bas, ce qui rend sa restriction relativement facile. Une alliance autour des semi-conducteurs inclurait sans doute les grands producteurs de puces en Europe, ainsi que la Corée du sud et Taïwan.

En plus de restreindre la technologie vers la Chine, les membres pourraient mettre en commun leurs travaux sur la R&D avancée, avec notamment le financement de sites de production de semi-conducteurs de plusieurs milliards de dollars hors de Chine.

Une initiative à haute visibilité susciterait forcément des inquiétudes et d’éventuelles représailles de Pékin, qui travaille à réduire sa dépendance aux technologies étrangères. La Chine utilise sa puissance économique pour tenter d’intimider les alliés des Etats-Unis, par exemple en réduisant les importations de vin et de charbon d’Australie après que Canberra a demandé une enquête sur les origines de la pandémie de coronavirus.

L’ajout de Taïwan, un producteur majeur de semi-conducteurs, que Pékin considère comme une province rebelle, accroîtrait les inquiétudes de la Chine.

«  Une alliance autour des semi-conducteurs menée par les Etats-Unis enfreindrait les principes de l’économie de marché et de la concurrence loyale et ne ferait que diviser artificiellement le monde et détruire les règles de commerce international », a déclaré le ministre chinois des Affaires étrangères dans un communiqué.

« En définitive, les Etats-Unis veulent réduire voire éliminer la capacité de Pékin à exercer des pressions »

Pékin dispose de nombreux leviers. La Chine est le principal fournisseur mondial de terres rares, les minerais indispensables à la production de téléphones mobiles, de produits électroniques et d’équipements militaires. En 2010, la Chine a limité les expéditions de terres rares au Japon en raison d’un conflit territorial au sujet d’un groupe d’îles en mer de Chine orientale, bien que Pékin ait démenti avoir été impliquée dans des actes coercitifs.

La Chine a récemment lancé un nouveau round de réglementations sur les terres rares et a interrogé les entreprises étrangères sur leur dépendance à la production chinoise, ce que certains experts en technologie ont vu comme un avertissement. Le ministre chinois des Affaires étrangères a déclaré que Pékin était « prêt à répondre aux besoins légitimes de tous les pays du monde dans la mesure du possible en accord avec les capacités et le niveau de ressources en terres rares de la Chine. »

Jake Sullivan a applaudi des alliances d’opposition antérieures contre les restrictions de la Chine sur les terres rares et Joe Biden a choisi comme représentante au Commerce des Etats-Unis Katherine Tai, le point de contact de l’administration Obama.

Joe Biden a commandé récemment une étude sur la dépendance des Etats-Unis aux terres rares fournies par l’étranger. Des responsables américains ont travaillé avec l’Australie et d’autres pays pour stimuler la production et créer des substituts synthétiques de ces minerais.

Interrompre les exportations de terres rares se retournerait contre la Chine en nuisant à sa réputation commerciale et en encourageant la production de minéraux dans d’autres pays, note Martijn Rasser, analyste en technologie pour le Center for a New American Security, un think tank basé à Washington.

Les alliances de technologie valent la peine de risquer un retour de bâton, poursuit-il. « En définitive, les Etats-Unis veulent réduire voire éliminer la capacité de Pékin à exercer des pressions. »

(Traduit à partir de la version originale en anglais par Astrid Mélite)

Traduit à partir de la version originale en anglais

L’avenir sera technologique ou ne sera pas

 

L’avenir sera technologique ou ne sera pas

 

 

C’est la conviction de Chung Eui-sun, le nouveau président de Hyundai Motor, a pris la tête de la société l’automne dernier, il a établi une feuille de route ambitieuse pour un avenir où les véhicules volants et les robots représenteraient une part de l’activité aussi importante que celle des voitures à essence classiques. (Article du journal Wall Street Journal)

Quelques mois plus tard, il a eu l’opportunité de remodeler Hyundai à cette image à travers un accord potentiel avec Apple pour la production de voitures autonomes.

Les investisseurs se sont réjouis à l’idée de cette union prometteuse entre Apple, l’entreprise la plus rentable du monde, et un groupe Hyundai plus moderne avec Chung Eui-sun aux commandes. Préparé depuis toujours à diriger l’empire automobile, Chung Eui-sun, âgé de 50 ans est le petit-fils du fondateur du constructeur. Fuyant les conventions, il change souvent la couleur de sa voiture de fonction, optant parfois pour le doré ou le bleu marine plutôt que le noir standard. Il a obtenu son MBA à San Francisco pendant le boom technologique des années 1990 et est devenu l’un des plus fervents partisans de la tech dans le secteur automobile.

Les géants de la tech et l’industrie automobile semblent destinés à se rapprocher depuis des années. Chaque partie a besoin de l’autre, avec d’un côté les éléments de base de l’usine et de l’autre la magie des logiciels. Mais la répartition des recettes potentiellement juteuses liées aux données des véhicules s’est souvent révélée un point sensible

Mais les négociations entre Apple, Hyundai et sa filiale Kia ont échoué, selon les dépôts de déclarations réglementaires de Corée du Sud de la semaine dernière. Hyundai reste en discussions au sujet de voitures autonomes avec d’autres parties non spécifiées, selon ces mêmes documents.

L’échec des négociations démontre à quel point le terrain est difficile pour Chung Eui-sun et Hyundai, voire l’industrie automobile dans son ensemble, qui peine à conclure des partenariats ou concevoir des solutions maison pour de futures technologies hors des activités traditionnelles.

« En général, c’est le constructeur automobile qui décide de tout et garde le contrôle », explique James Hong, directeur de la recherche en mobilité chez Macquarie Capital, à Séoul. « Ici, c’est Apple qui tire les ficelles. »

Les géants de la tech et l’industrie automobile semblent destinés à se rapprocher depuis des années. Chaque partie a besoin de l’autre, avec d’un côté les éléments de base de l’usine et de l’autre la magie des logiciels. Mais la répartition des recettes potentiellement juteuses liées aux données des véhicules s’est souvent révélée un point sensible, observent des analystes du secteur.

La volonté de Chung Eui-sun de transformer Hyundai, quatrième constructeur automobile au monde en termes de chiffre d’affaires, a une résonance à la fois professionnelle et personnelle. Le père de Chung Eui-sun, qui a dirigé Hyundai pendant vingt ans, a été le premier Sud-Coréen à entrer dans l’Automotive Hall of Fame dans le Michigan. Pour laisser sa propre empreinte, Chung Eui-sun veut faire de Hyundai davantage qu’un constructeur automobile, ce qui est le défi de l’ensemble du secteur.

« Il connaît les règles, donc il sait comment se montrer créatif et dans quelles conditions oser aller plus loin », a déclaré Frank Ahrens, ancien vice-président du siège coréen de Hyundai.

Chung Eui-sun, s’exprimant par le biais d’une porte-parole, a refusé la demande d’entretien. Hyundai et Kia ont refusé de commenter. Apple n’a pas répondu à la demande de commentaire.

Même sans accord, les discussions entre Hyundai et Apple ont fermement ancré les ambitions du patron de Hyundai. Le constructeur automobile a provisionné au moins 30 milliards de dollars pour les technologies d’avenir. Il a récemment créé une joint-venture avec Aptiv PLC autour des véhicules autonomes et a pris une participation de contrôle dans l’entreprise de robotique américaine Boston Dynamics. Kia prévoit de porter la part de véhicules électriques à 40 % de la production totale d’ici à 2030. Cela représente près de quatre fois le niveau actuel.

Chung Eui-sun, passionné de basketball et fan de l’émission Top Gear, s’est concentré sur l’amélioration de l’image de son entreprise, plutôt que sur une réduction des coûts à tout prix, selon d’anciens dirigeants et collaborateurs de Hyundai. Il a supervisé le lancement de la nouvelle marque de Hyundai, Genesis, un concurrent premium de BMW notamment. Le groupe a débauché des talents clés d’Audi et de Volkswagen. En tant que président de Kia au milieu des années 2000, c’est encore Chung Eui-sun qui a engagé les efforts visant à donner une image tendance à sa flotte, l’entreprise étant allée jusqu’à engager la star du basket Blake Griffin pour sauter par-dessus l’une de ses voitures lors d’un concours de slam-dunk en 2011.

La société s’est aussi modernisée en interne, troquant les bureaux compartimentés pour des open-space. Il n’est pas rare que des jeunes collaborateurs prennent des selfies avec l’actuel président de l’entreprise.

Autrefois perçue comme bon marché et peu fiable, Hyundai a dépassé ses concurrents en doublant le cahier des charges traditionnel des constructeurs automobiles. Là où d’autres proposaient une garantie de trois ans ou de 58 000 km, Hyundai et Kia, qui ont établi d’immenses usines non syndiquées en Alabama et en Géorgie, visaient dix ans et 160 000 km

Ni Hyundai ni Apple n’ont expliqué pourquoi les négociations avaient pris fin, mais l’accord potentiel avait suffisamment progressé pour que des représentants de Kia aient contacté des partenaires au cours des dernières semaines au sujet d’un plan pour assembler des véhicules électriques pour Apple en Géorgie, selon un article du Wall Street Journal en février.

Les investisseurs ont cédé les actions du constructeur sud-coréen après l’annonce de l’interruption des négociations avec Apple, mais le titre Hyundai demeure en hausse de 27 % cette année, tandis que le titre Kia a grimpé d’environ un tiers. En comparaison, l’indice de référence sud-coréen Kospi a gagné 9 % en 2021.

La métamorphose prévue de Hyundai s’appuie sur l’héritage de Chung Mong-koo, le père de l’actuel président, qui avait pris la tête il y a vingt ans d’une entreprise en difficulté.

Autrefois perçue comme bon marché et peu fiable, Hyundai a dépassé ses concurrents en doublant le cahier des charges traditionnel des constructeurs automobiles. Là où d’autres proposaient une garantie de trois ans ou de 58 000 km, Hyundai et Kia, qui ont établi d’immenses usines non syndiquées en Alabama et en Géorgie, visaient dix ans et 160 000 km. Le faible coût de la main-d’œuvre a aidé le constructeur sud-coréen à vendre moins cher que ses concurrents.

Les objectifs d’amélioration ambitieux de l’entreprise l’ont distinguée des autres acteurs du secteur et lui ont conféré une plus grande tolérance au risque, a expliqué Vanessa Ton, analyste chez Cox Automotive et ancienne cadre chez Kia. « Ils sont très ambitieux et ils ont tendance à agir vite », a résumé Vanessa Ton.

Lorsqu’il a pris la présidence de l’entreprise en octobre, Chung Eui-sun a exprimé son intention de remettre à jour la culture de l’entreprise en s’écartant de la structure hiérarchique promue par son père.

« Si chaque collaborateur se voit comme un pionnier et canalise cette énergie positive dans notre croissance et celle des générations futures », a déclaré Chung Eui-sun dans une vidéo destinée aux collaborateurs, « je suis convaincu que nous saisirons de nouvelles opportunités dans les crises. »

Tim Higgins à San Francisco a contribué à cet article

(Traduit à partir de la version originale en anglais par Astrid Mélite)

L’indépendance technologique n’est pas l’autarcie

L’indépendance technologique n’est pas l’autarcie

 

Jérôme Tredan, PDG de Saagie, société de la French Tech,  explique dans une chronique de la tribune que la légitime recherche d’une plus grande souveraineté ne serait cependant se réduire à une autarcie qui étoufferait l’innovation et la performance.

 

 

Si l’impact économique de la crise a eu pour effet une accélération de la transformation numérique des organisations, son impact sanitaire a, lui, mis en lumière la nécessité d’une souveraineté française ou européenne, notamment en matière de technologies. Mais face à Amazon qui s’offre une autoroute sur le marché du e-commerce, Huawei autoproclamé leader de la 5G ou encore face aux GAFAM qui se développent de manière exponentielle avec une absence quasi totale de régulation, quelle place reste-t-il pour les acteurs européens ? Comment faire rimer croissance économique et éthique dans un monde où la data, omniprésente, touche autant à nos préférences de consommation qu’à notre santé ?

Souveraineté numérique ou le rêve d’une troisième voie

La crise a mis en exergue notre dépendance aux grandes puissances industrielles et numériques, Etats-Unis et Chine en tête. Si la compétitivité de l’industrie française et européenne a été mise à mal, la crise a également eu l’effet d’un révélateur quant à notre souveraineté numérique, notion pourtant fondamentale depuis les années 2000.

Alors que depuis 20 ans, la maîtrise de nos données, souvent sensibles, toujours personnelles, est confiée à des acteurs opérant hors de notre territoire, il est aujourd’hui nécessaire d’agir concrètement pour en reprendre le contrôle. Si le marché du Big data atteignait 68 milliards de dollars en 2021, comme l’a prédit Gartner, c’est parce qu’en effet, les données constituent l’une des ressources essentielles d’un monde digitalisé.

La notion de souveraineté numérique, dont les vertus et bénéfices ne sont plus à prouver, doit être adressée dans la durée. Elle implique de redonner à l’entreprise, au consommateur, une pleine maîtrise de ses données, allant de leurs traitements à leur utilisation finale par les acteurs qui la manipulent, en lien avec les valeurs d’éthique et de responsabilité françaises et européennes.

Dans ce contexte, nous regorgeons d’entreprises innovantes, capables d’offrir une vision alternative, éthique et conquérante. Imaginez un instant que les pépites internationales soient des entreprises nées dans nos régions comme Saagie (management de projets data), Aircall (téléphonie interopérables), ou encore Lydia (paiement mobile). Mais pour l’heure, force est de constater qu’à l’instar de Dataïku et Algolia, les plus belles success-stories françaises s’écrivent outre-Atlantique.

Si la data représente le cœur du réacteur capable de transformer le vieux continent en un nouvel El Dorado du numérique, le projet européen Gaia-X montre que notre idéal d’indépendance n’est plus une utopie. Que ce soit dans le domaine de la santé, des télécommunications, des objets connectés ou de la robotique, la souveraineté est primordiale et ses enjeux économiques colossaux. La maîtrise de la data et de l’IA apparaît comme essentielle pour l’émergence d’une voie numérique européenne.

Data et intelligence artificielle, des opportunités à saisir et des champions européens à accompagner

L’Europe doit se remobiliser et accélérer, aussi bien pour préserver et moderniser un tissu industriel existant, que pour conquérir de nouvelles positions économiques sur des technologies émergentes dans un contexte de spécialisation internationale. Mais rejoindre la course mondiale à l’innovation, c’est aussi offrir des alternatives, à commencer par une IA éthique et des données maîtrisées. Pour cela, nos gouvernements pourraient, par exemple, engager une politique industrielle commune et renforcer l’écosystème européen de la donnée, grâce à un modèle de production et de gouvernance fondé sur la réciprocité, le partage et la collaboration entre les acteurs privés d’une même filière. Dans le secteur industriel, par exemple, la production de « pipelines » de gaz et de pétrole nécessite le partage d’informations entre les producteurs du tube, et les producteurs de pétrole basé sur un modèle open data.

 

Dans tous les cas, ce n’est qu’avec le soutien d’acteurs européens de confiance, capables de traiter et de contrôler la donnée de bout en bout, que les entreprises pourront gagner en sécurité, en agilité, et prendre des décisions réfléchies, durables et innovantes.

Pour offrir des solutions d’envergure internationale, nous devons démontrer la valeur d’usage de l’IA en matière de santé, de défense, de maîtrise énergétique ou encore de robotique. Notre légitimité sur ces secteurs facilitera l’adoption de technologies d’IA embarquées et de confiance au sein des territoires. Par exemple, l’IA prouve son efficacité en matière de santé (détection de maladies, logistique ou plus récemment gestion de la crise avec CovidTracker). Quant au secteur énergétique, la data est tout aussi essentielle dans une distribution plus efficace et intelligente des énergies par exemple.

Porter nos convictions et s’ouvrir au monde

Alors que la souveraineté numérique semble entrer en conflit avec les notions de compétitivité et de coopération internationale, il faut penser une nouvelle approche plus ouverte, bénéfique aux individus et aux organisations aux quatre coins du monde. Pour cela, nous devons nous adapter aux normes et standards internationaux et avancer en répondant aux enjeux d’interopérabilité. Cette approche pragmatique et réaliste est clé pour faciliter le développement, le partage et l’utilisation des données et des services, dans un cadre structuré et pour permettre aux acteurs Français de bénéficier des meilleures technologies du marché et de tirer le meilleur profit de leurs données.

Aussi complexe soit-elle, l’ère du « tout data » offre la possibilité de redistribuer les cartes pour que la France, avec l’Europe, prenne sa place dans le laboratoire d’innovation international de la donnée et de l’IA. Le règlement général sur la protection des données (RGPD) qui a imposé de nouvelles responsabilités et une nouvelle vision éthique, visibles à l’échelle mondiale, en est le meilleur exemple. Celui-ci a montré qu’il était possible de combiner protection des données pour les individus d’une part, compétitivité et attractivité des entreprises européennes et non européennes d’autre part, dans un cadre sécurisé.

La bataille se joue désormais sur la normalisation des données publiques, les standards de protection, de localisation, de portabilité et de réversibilité. Le partage de la donnée dans un cadre défini, contrôlé, c’est ce qui permet à IQVIA, leader mondial sur le marché des données de santé de s’associer avec OpenDataSoft, acteur français, pour mettre à disposition les données de vente des tests antigéniques Covid en pharmacie.

La nouvelle décennie d’innovations qui s’annonce doit être la nôtre. Elle doit être le symbole d’un chemin ouvert par la France et l’Europe, qui mènerait vers la combinaison parfaite entre souveraineté, respect des normes internationales et compétitivité mondiale. Le renforcement de la traçabilité des données et leur sécurisation doivent porter nos valeurs éthiques comme un nouvel asset indispensable à l’économie de demain.

Chine – Etats-Unis : une guerre technologique qui va durer

 Chine – Etats-Unis : une guerre technologique qui va durer

L’expert de l’industrie chinoise Jean-François Dufour montre, dans une tribune au « Monde », comment Washington s’efforce de bloquer l’accès de Pékin aux semi-conducteurs, composants incontournables pour le développement industriel chinois.

Tribune.

 

 Le gouvernement chinois voit partir avec Donald Trump un adversaire qui faisait beaucoup de bruit. Mais Pékin sait que son véritable problème va rester : la politique d’endiguement technologique menée par Washington, fruit d’une évolution de plus long terme et plus discrète, a passé un cap décisif en 2020.

La guerre commerciale contre la Chine, lancée en 2018 par le président sortant des Etats-Unis, a des chances de s’apaiser avec son successeur. Mais elle est restée un problème marginal pour les autorités chinoises : elle a été inefficace, et leur a même permis de remobiliser les troupes en démontrant le bien-fondé de leur politique d’indépendance économique nationale.

Le souci bien plus important de Pékin est que la guerre technologique, beaucoup plus décisive, a toutes les chances de se poursuivre. Elle n’est en effet pas le résultat d’un mouvement d’humeur ni de la décision d’un homme. Elle a commencé bien avant Donald Trump : on peut dater son premier épisode important du premier veto à une acquisition du groupe chinois Huawei, en 2008 ; surtout, elle est l’aboutissement d’une réflexion stratégique de l’administration américaine.

Action américaine

Son objectif est d’endiguer l’émergence technologique accélérée de la Chine. Elle est devenue une urgence aux yeux de Washington en 2015, lorsque la Chine de Xi Jinping, en publiant son plan « Made in China 2025 », n’a plus caché ses ambitions.

Cinq ans plus tard, en 2020, cette stratégie a trouvé son moyen le plus minuscule – il se mesure en nanomètres –, mais aussi le plus efficace : les semi-conducteurs sont au cœur de tous les projets technologiques de la Chine. Depuis les véhicules autonomes jusqu’aux réseaux électriques intelligents, en passant par l’usine du futur qui doit les fabriquer et les équipements de télécommunications qui doivent les faire fonctionner, ces composants électroniques sont incontournables. Et ils sont aussi le talon d’Achille de l’industrie chinoise, qui en consomme cinq fois plus qu’elle n’en produit.

L’exploitation américaine de cette faiblesse s’est concentrée dans un premier temps sur Huawei, le premier équipementier de télécommunications au monde, devenu en quelques années le symbole de la progression technologique chinoise en tant que pionnier de la 5G. Elle s’est faite en deux étapes.

La première, inscrite en 2019 dans le contrôle des ventes de semi-conducteurs américains au groupe chinois, s’est avérée relativement inefficace. Huawei a en effet démontré une capacité de réaction d’une rapidité inattendue, avec la conception de ses propres

 

 

Se protéger de la guerre technologique chinoise

 Se protéger de la guerre technologique chinoise

 

Nicolas Tenzer, Sciences Po – USPC, appelle à faire face à la guerre technologique chinoise pour que l’économie européenne sauve sa souveraineté.( Chronique dans la Tribune)

 

L’Union européenne s’apprête d’ici la fin de l’année à renforcer sa réglementation des grandes entreprises de technologie digitale et sa protection des données, notamment à travers le Règlement général sur la protection des données (RGPD) établi en 2018. Les entreprises européennes devront non seulement continuer de traiter avec les grands acteurs américains comme Google, Apple, Facebook ou Amazon (les célèbres GAFA), mais également avec les industriels technologiques chinois qui se développent à grande échelle.

Alors que Xi Jinping engage 1,2 milliard d’euros dans l’élaboration d’une industrie technologique de pointe à l’horizon 2025, l’autonomie stratégique de l’Europe et sa capacité à protéger les données de ses citoyens dépendent de plus en plus de la volonté concrète de contrer l’influence grandissante de la République populaire de Chine. Malheureusement, aucune autorité européenne de protection des données – que ce soit le Commissaire fédéral à la protection des données en Allemagne (BfDI), l’Agence espagnole de protection des données (AGPD), ou encore le Commissaire de protection des données en Irlande – ne se positionne avec le sérieux nécessaire sur cet enjeu.

D’ores et déjà, des entreprises américaines, de manière légitime, ont reçu des amendes substantielles pour infraction à la réglementation existante de l’Union européenne, mais leurs homologues chinoises semblent pour l’instant exclues, comme si les géants américains étaient l’arbre qui cachait la forêt.

Les obligations légales chinoises incompatibles avec la sécurité européenne

Le manque d’attention sur ce sujet est surprenant, étant donné que les lois de la RPC obligent les opérateurs de réseau à se soumettre aux « organes publics de sécurité et organes nationaux de sécurité » de Pékin, ainsi qu’à la vision étendue du pays sur la « sécurité nationale« . De telles lois permettent déjà au gouvernement de réaliser des « tests d’infiltration » en prenant pour cible n’importe quel réseau chinois. Il n’est pas difficile d’imaginer comment cet encadrement légal pourrait faciliter les activités d’espionnage de la Chine, ni de supposer que les services de sécurité chinois pourraient bénéficier des données réquisitionnées auprès de leurs cibles à l’étranger.

Or, ces entreprises dans l’orbite de Pékin dominent déjà l’espace européen des matériels, depuis les télécommunications (Huawei) - dont l’action de lobbying est quasiment sans limite en Europe - jusqu’aux drones de l’entreprise DJI, qui détient 70% du marché mondial. D’autres titans digitaux chinois, dont Alibaba, Tiktok, WeChat ou encore Tencent réalisent également leur entrée sur les marchés européens.

Les services de renseignement des États membres mettent le doigt sur au moins une partie des dangers auxquels les pays de l’Union européenne s’exposent. Comme le soulignait l’année dernière Bruno Kahl, du Service fédéral de renseignement allemand, en référence à Huawei : « La confiance dans une entreprise qui dépend fortement du parti communiste et du système de renseignement de son pays est fortement compromise ». Un an après, le gouvernement allemand prépare enfin un cadre législatif qui exclurait de facto Huawei de son réseau 5G.

En se concentrant sur les télécoms, l’Europe laisse les drones passer sous le radar

La plupart des critiques contre Huawei peuvent également s’appliquer à DJI. Comme le décrit le think tank conservateur l’Heritage Foundation à Washington, la réalité de la coopération entre le plus grand fabricant de drones civils et l’État chinois n’est pas remise en question. DJI est impliqué dans des crimes contre l’humanité perpétrés contre la population Ouïghoure dans la province de Xinjiang car, dans le cadre d’un accord de « maintien de la stabilité, » DJI fournit ses drones aux forces de police et aux instances paramilitaires responsables de la répression des minorités ethniques dans cette région frontalière de la Chine.

Ce même rapport met en avant d’importantes failles sécuritaires dans le logiciel de DJI, signalées par de nombreuses entreprises de cybersécurité et concernant notamment la collecte de données sensibles ainsi que le transfert de données à des serveurs chinois, sans l’accord de l’utilisateur et même à son insu. Les agences fédérales aux États-Unis ne font pas confiance aux drones de DJI, imposant à leur place l’utilisation des modèles proposés par des fournisseurs américains et européens de confiance. Le gouvernement australien tient également compte des dangers potentiels que représente l’utilisation malveillante des drones, compte tenue de la hausse des tensions diplomatiques avec la Chine.

En Europe, la capacité de DJI de battre les prix de ses concurrents l’emporte sur les risques sécuritaires, non seulement pour les consommateurs mais également pour les armées et les forces de l’ordre. Le manque d’action des institutions telles que le BfDI ou l’AGPD après que les activités de transfert furtif des données par DJI aient été dévoilées contraste brutalement avec la manière dont ces dernières traitent les compagnies américaines comme Google.

Les plus grandes sociétés chinoises s’engagent sur la conformité formelle avec la réglementation européenne, mais lorsqu’on sait le contrôle exercé par la Chine sur les entreprises (chinoises et étrangères) localisées sur son territoire, comment les Européens peuvent-ils être en mesure d’exercer un droit de recours contre un acteur chinois si la sécurité de leurs données est compromise, surtout si des services étatiques sont impliqués ?

Il faut de même rappeler l’absence de réciprocité qui, outre les effets en termes de sécurité, fausse la concurrence. Alors que la Chine a interdit l’accès à son territoire aux GAFA américaines, la Chine a permis à ses entreprises de se développer en toute tranquillité, libérées de la concurrence internationale et départies de la pression exercée sur les compagnies européennes, forcées d’échanger leur technologies contre l’accès au marché chinois. Pour que l’Union européenne puisse affirmer sa souveraineté numérique, ces questions sont à résoudre impérativement entre Bruxelles et Pékin.

L’Europe se réveillera-t-elle ?

Devant cette inégalité qui risque à jamais de consacrer une domination technologique de la Chine, une certaine lenteur semble prévaloir. Tout se passe comme si la conscience accrue des dirigeants européens des risques tant économiques que sécuritaires ne se traduisait par aucune d’action à la hauteur des implications dramatiques qu’ils peuvent entraîner. Les États européens manquent aussi d’une approche commune des enjeux que présentent les technologies digitales, y compris la lutte contre les manipulations de l’information.

Il est plus que temps que les États membres de l’Union européenne et les autorités européennes prennent compte du caractère global et simultané de la lutte nécessaire contre les géants chinois. Nous ne pouvons déconnecter les menaces ni en termes de concurrence, avec la Chine qui pourrait bien obtenir une position dominante inexpugnable et des avantages comparatifs déterminants, ni en termes de sécurité et de respect des libertés fondamentales.

Le Sommet UE-Chine du 22 juin 2020 a été aussi une forme de tournant, témoignant d’une tardive prise de conscience de la part d’Ursula Von Der Leyen et Charles Michel, mais les intentions exprimées par les dirigeants européens ne se sont pas encore transformées en actes. La marche vers la domination technologique de la Chine, qui aura des conséquences graves en termes de valeur, est déjà largement commencée. Demain, il sera trop tard pour enclencher la marche arrière. Le mal sera fait.

 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol