Archive pour le Tag 'technologies'

Société: Protéger les cerveaux des nouvelles technologies

 

Société: Protéger les cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Protéger nos cerveaux des nouvelles technologies

Protéger nos cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Connecteriez-vous votre cerveau ?

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Nouvelles technologies–L’aliénation par les machines parlantes ?

Nouvelles technologies–L’aliénation par les machines parlantes 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables. 

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

Nouvelles technologies– Les dangers de la digitalisation et du cloud

Nouvelles technologies– Les dangers  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– risques et excès de la digitalisation et du cloud

Nouvelles technologies– risques et excès  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Technologies et société : un chien virtuel pour 1000 €

  • Technologies et société : un chien virtuel pour 1000 €

 

Officiellement le petit robot, sorte de chien virtuel, est surtout chargé de la sécurité dans l’habitat. En faite  comme il est aussi doté d’Alexa, on pourra aussi échanger avec l’appareil. Comme on arrête difficilement le progrès, cet appareil baptisé Astro, pourrait aussi faire office de chien virtuel. Normalement un chien dans les couts d’alimentation seront inférieurs aux chiens réels. Notons d’ailleurs que les aliments pour chats et chiens constituent souvent le rayon le plus important dans les supermarchés de nos sociétés modernes. Plus besoin d’alimentation donc, sinon peut-être un peu d’électricité.

L’avantage également c’est qu’il n’y aura plus la corvée de sortie du chien qui pourra soit se baladé seul dans le jardin ou dehors, soit resté à l’intérieur.

On imagine tous les progrès technologiques et sociétaux que permettra le chien Astro. Avec les développements techniques il sera même possible de se faire remplacer en réunion par ce chien très intelligent grâce en particulier à la fonction d’Alexa . Le produit sera commercialisé par Amazon qui en général ne se trompe pas de créneau marché porteur.

« Dans cinq ou dix ans, nous pensons qu’il y aura au moins un robot dans chaque maison », assure Dave Limp, paraphrasant quasiment Bill Gates et sa fameuse prédiction du jour où il y aurait un ordinateur par foyer. Amazon prévient déjà qu’Astro n’est pas son dernier robot. La question lancinante sera aussi de savoir si ce fameux chien techno sera ou non mordre les intrus. Et question existentielle fondamentale s’il faudra ou non leur mettre une muselière.

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Comment naissent et se développent les nouvelles technologies

  • Comment naissent et se développent les nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

 

Les constructeurs automobiles s’engagent dans une stratégie folle pour gonfler les voitures de technologies afin de maintenir les prix. En effet d’après les experts de la profession, le logiciel pourrait représenter 60 % du prix de la voiture électrique. Un logiciel complexe justifié par de nombreux services  et exploitant des informations de nombreux capteurs et caméras.

Certes l’électronique dans l’automobile n’est pas un phénomène nouveau et de ce point de vue la complexification des automobiles est déjà largement inutile aujourd’hui et c’est cette complexification qui permet de maintenir des prix très élevés

Selon une étude réalisée par le cabinet Roland Berger, le coût des semi-conducteurs, qui représente 16 % du total dans une voiture diesel ou essence, monte ainsi à 35 % dans une voiture électrique.

Le cabinet PwC estime que la part du logiciel dans la valeur des voitures grimpera à 60 % en 2030. L’électronique permettra de gérer les fonctions d’assistance à la conduite, grâce auxquelles les véhicules vont se garer seuls ou rectifier leurs trajectoires – avant d’être un jour totalement autonomes ! Une utopie totale évidemment car les infrastructures devraient alors être totalement dédies à la seule circulation automobile ( bref la réinvention du train ou du métro ).

La stratégie des constructeurs est surtout commerciale et financière et la voiture risque d’être gonflée de gadgets numériques pour justifier les prix et maintenir des profits. Une stratégie qui risque d’être perdante dans la mesure où la voiture numérique va passer à côté de sa cible sociologique de masse. Seule une partie de la population pourra en effet se payer ses voitures numériques trois à quatre fois plus chères qu’une voiture thermique. Le gagnant de la future stratégie pourrait bien être au contraire celui qui saura déshabiller l’automobile de toute ce fatras numérique inutile. Cela pour rendre l’automobile encore accessible financièrement.

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

 

Spécialiste des enjeux de l’économie numérique, Asma Mhalla plaide, dans une tribune au « Monde », pour la mise en place par les Etats-Unis et l’Union européenne d’une alliance numérique transatlantique.

 

Tribune.
Economie numérique et intelligence artificielle ont brutalement reconfiguré l’échiquier géopolitique mondial. Une nouvelle politique de puissance (power politics) s’installe entre la Chine et les Etats-Unis, avec, comme ambition, la domination des normes technologiques du nouveau système international. Pour fixer nos propres règles, il nous faut rapidement créer une instance de gouvernance numérique euroatlantiste. 

Le défi est grand. L’Europe rêve d’une troisième voie indépendante, les Etats-Unis, de maintenir le statu quo. Mais la conflictualité croissante du monde et l’interdépendance de nos économies appellent à une communauté de destin. Donc de valeurs. Plutôt qu’un repli souverainiste crispé, nous gagnerions à sortir de dogmes anachroniques pour dessiner les contours d’une forme nouvelle de souveraineté élargie et collaborative autour d’une alliance numérique transatlantique.

 

Sur un plan purement technique, l’innovation, relativement homogène, n’est plus un critère suffisamment différenciant entre les forces en présence. Le combat technologique est surtout idéologique. Les socles technologiques et algorithmiques ne sont en effet pas un simple empilement de fonctionnalités neutres. Leur conception, les arbitrages qui les précèdent, les finalités qu’ils poursuivent sont porteurs d’une certaine vision du monde.

Dans la course mondiale aux normes, les lignes de clivage entre les blocs portent donc désormais sur les valeurs, les projets de société, l’architecture politique et technologique associée. Mises sous pression par les puissances concurrentes, les démocraties occidentales, Europe et Etats-Unis en tête, doivent se positionner rapidement, en clarifiant la singularité de notre modèle éthique, technologique et politique.

Or, jusqu’à présent, l’absence d’une gouvernance numérique articulée de part et d’autre de l’Atlantique nous a fait perdre la première partie de la bataille normative internationale tout en fragilisant le pacte démocratique sur le plan national. Plutôt que de se démarquer, nos Etats ont massivement convergé vers le modèle techno-sécuritaire chinois, combinant démocratie et autoritarisme dopé aux algorithmes prédictifs.

 

Nous avons inextricablement enchevêtré les technologies numériques, par nature duales, dans la toile du capitalisme de surveillance. Outrepassant toute considération éthique et démocratique, marqueurs historiques du bloc occidental. A ce compte-là, quelle différence y aura-t-il demain entre le modèle chinois, russe ou occidental ? Pour exister face aux nouvelles puissances, nous allons devoir renouveler rapidement nos modes de gouvernance.

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

par Tim Higgins  Dans le Wall Street Journal

 

Un nouveau choc des titans de la tech se profile, alors qu’Apple et Microsoft sont en train de raviver une querelle qui remonte aux premiers jours de l’ère des ordinateurs personnels.

Les cofondateurs des deux entreprises, Steve Jobs chez Apple et Bill Gates chez Microsoft, se sont affrontés au début de leur histoire, avant d’enterrer la hache de guerre. Ces derniers mois, les deux sociétés ont ressorti les armes, lors d’une escarmouche qui a mis en émoi leurs clients et d’autres entreprises de la tech.

Apple, lors de son conflit juridique avec Epic Games, a accusé Microsoft de tirer les ficelles dans l’affaire impliquant le développeur de jeux vidéo. Epic Games a attaqué le fabricant de l’iPhone pour pratiques anticoncurrentielles, alors que Microsoft reprochait à ce dernier de restreindre ses possibilités d’atteindre des clients via son propre service dédié aux jeux vidéo.

Jeudi, lors du lancement de Windows 11, le président-directeur général de Microsoft, Satya Nadella, a fait ce qui a largement été perçu comme une pique à Apple et au contrôle qu’il exerce sur l’App Store de son iPhone, sans toutefois mentionner directement son rival. Les deux entreprises placent actuellement leurs pions en vue de la bataille imminente qui se prépare sur le marché de la réalité augmentée et virtuelle, considérée comme la prochaine évolution majeure de l’informatique.

« Le monde a besoin d’une plateforme plus ouverte, qui permette aux applications de devenir des plateformes à part entière », a asséné M. Nadella jeudi dernier lors de l’événement qui se tenait sous forme virtuelle.

Apple justifie le contrôle strict qu’il exerce sur son App Store en affirmant qu’il offre à ses utilisateurs une meilleure protection de leur vie privée et une cybersécurité accrue. D’autres entreprises, dont Facebook et Epic Games, affirment que la société exerce de manière inéquitable son pouvoir de contrôle sur un accès à plus d’un milliard d’utilisateurs d’iPhone.

M. Nadella présente Microsoft comme le défenseur des développeurs et un bon partenaire pour eux. La société s’est par exemple associée à Amazon, pour proposer aux utilisateurs de Windows 11 de télécharger les versions Android (le système de Google) des applications du géant du commerce électronique, alors qu’Apple a renforcé le verrouillage de ses appareils et de ses applications.

Il s’agit d’une certaine manière d’une inversion des rôles. Dans le passé, Apple était considéré comme le petit chouchou des créateurs de contenu, qui luttait contre un monopole aux méthodes musclées.

Fondés au milieu des années 1970, Apple et Microsoft sont les plus anciens géants de la tech moderne. Jeunes, MM. Jobs et Gates se sont disputés pendant des années. A une époque, M. Jobs a accusé Microsoft de voler les idées d’Apple et de proposer un produit mal conçu. Ils ont publiquement conclu une trêve aux alentours de 1997, peu après le retour de M. Jobs à la tête de l’entreprise qu’il avait contribué à créer. Cette année-là, M. Gates a investi 150 millions de dollars dans Apple, ce qui a permis d’injecter les liquidités dont M. Jobs avait cruellement besoin pour écrire son deuxième acte à la tête de la société.

Depuis, les passes d’armes entre les deux entreprises se sont, à l’occasion, poursuivies. Apple a par exemple diffusé des spots télévisés se moquant des utilisateurs de PC, ce qui a poussé Microsoft à lancer une contre-campagne.

A un moment, M. Jobs a estimé que cette rivalité était devenue malsaine. « Si le jeu était un jeu à somme nulle, où pour qu’Apple gagne, Microsoft devait perdre, alors Apple allait perdre », analysait-il ainsi au cours d’une interview conjointe avec M. Gates lors d’une conférence du Wall Street Journal en 2009, à une époque où le géant des logiciels était beaucoup plus important. « Nous avons essayé d’arranger les choses », déclarait alors M. Jobs.

Jusqu’à récemment, la nouvelle génération de dirigeants des deux entreprises semblait désireuse de préserver publiquement la paix. Tim Cook a succédé à M. Jobs chez Apple en 2011, et M. Nadella est devenu le PDG de Microsoft en 2014. L’une des premières grandes mesures prises publiquement par M. Nadella a été d’intégrer les applications de bureautique Office développées par son entreprise sur l’iPad, la tablette d’Apple.

« Microsoft et Apple sont souvent passés d’ennemis acharnés à meilleurs ennemis, il y a eu une succession de hauts et de bas », détaille Patrick Moorhead, président de la société technologique Moor Insights & Strategy. « Désormais, ils sont à nouveau ennemis. »

Aujourd’hui, les deux adversaires sont devenus les deux grandes superpuissances du monde des affaires aux Etats-Unis. Elles sont les deux seules sociétés américaines à être évaluées à au moins 2 000 milliards de dollars. Elles emploient toutes deux plus de 140 000 personnes et leur chiffre d’affaires annuel combiné dépasse les 400 milliards de dollars.

Le pouvoir de contrôle qu’Apple exerce sur ce qui est mis sur l’iPhone et par qui est au cœur du conflit actuel. Microsoft n’hésite pas à critiquer ces restrictions, qu’il considère comme un obstacle à la croissance de ses activités dans les jeux vidéo, en plein essor.

Cette année, Microsoft a soutenu le créateur de jeux vidéo Epic Games lorsqu’il a intenté un procès à Apple pour pratiques anticoncurrentielles. Des allégations que la société de Cupertino (Californie) réfute. Apple prélève jusqu’à 30 % sur les transactions réalisées sur les applications lorsqu’elles sont téléchargées via l’App Store.

Epic Games a demandé la comparution de Lori Wright, vice-présidente du développement commercial de Microsoft pour les jeux, les médias et le divertissement, afin qu’elle décrive sa tentative avortée d’introduire sur l’App Store d’Apple un service de streaming comportant un bouquet de jeux vidéo appelé Game Pass Ultimate. Selon elle, Apple a traité ce produit Microsoft différemment des services de streaming fournis par d’autres sociétés, par exemple Netflix.

Dans un mémoire déposé devant les tribunaux, Apple a tenté de discréditer le témoignage de Lori Wright, et de semer le doute sur les motivations d’autres témoins cités par Epic, laissant entendre que Microsoft tirait les ficelles de cette action en justice.

« Un observateur raisonnable pourrait se demander si Epic ne sert pas de cheval de Troie à Microsoft », a ainsi indiqué Apple dans un document transmis au tribunal. « Pourtant, Microsoft s’est protégé de toute exposition significative dans ce litige en n’apparaissant pas comme une partie ou en n’envoyant pas de représentant de l’entreprise pour témoigner. »

Un juge devrait se prononcer sur l’ensemble de l’affaire dans les semaines à venir.

Si Microsoft a indiqué réduire la commission qu’il prélevait sur le contenu vendu sur sa nouvelle boutique d’applications, la société continuera à prendre 30 % sur les jeux achetés sur sa console Xbox.

Apple et Microsoft sont tous deux en conflit avec d’autres entreprises. Apple est en désaccord avec Facebook sur le suivi des données des utilisateurs, tandis que Microsoft est en conflit avec le service cloud d’Amazon et des sociétés telles que Zoom et Slack.

Mais aucun de ces litiges n’a la même résonance historique.

Les choses s’accélèrent également car Apple et Microsoft se préparent à conquérir le marché encore émergent de la réalité augmentée, qui consiste à superposer des informations numériques au monde réel. Microsoft vend déjà son casque HoloLens, et Apple devrait dévoiler son dispositif dès l’année prochaine.

« Nous partons du principe que [ce marché] sera ouvert », déclare Alex Kipman, Microsoft Technical Fellow. « Ce ne sera pas : “vous devez passer par notre magasin d’applications et payer une taxe”, a-t-il affirmé le mois dernier dans le cadre du festival The Future of Everything organisé par The Wall Street Journal.

Les responsables du secteur s’attendent à ce qu’Apple transpose les règles de son App Store dans le monde virtuel. Apple n’a pas fait de commentaires sur ses projets.

« C’est définitivement en train de chauffer », résume Gene Munster, un observateur expérimenté des deux entreprises, qui est directeur associé de Loup Ventures, une société de capital-risque spécialisée dans la recherche technologique. « La réalité augmentée est vraiment importante, et c’est la prochaine opportunité pour Microsoft de repasser en mode croissance… et Apple, lui, veut évidemment défendre son territoire dans le domaine du mobile. »

Traduit à partir de la version originale en anglais

Technologies- Numérique : la France en retard ( Euler Hermes)

Technologies- Numérique : la France en retard ( Euler Hermes)

L’indice «d’agilité digitale» de l’assureur-crédit Euler Hermes situe la France en 15ème position, un léger progrès par rapport au classement précédent. La Chine bondit à la 4ème place.

D’après les indicateurs d’Euler Hermes ( filiale d’Allianz)  qui classe les performances numériques de chaque État, la France est en retard derrière les très grandes puissances. La France en quinzième position mais loin  derrière les États-Unis toujours premiers de la classe ou la Chine qui fait un grand bond par rapport au classement de fin 2018 et se retrouve en quatrième position. Loin également derrière l’Allemagne en légère perte de vitesse à la 3ème place, le Danemark (2ème) ou encore la Corée du Sud (12ème).

Cet indicateur « nous permet de savoir quel pays offre les meilleures conditions aux entreprises traditionnelles pour réussir leur digitalisation et le meilleur environnement aux entreprises digitales pour se développer», explique Alexis Garatti, directeur des recherches économiques d’Euler Hermes.

Les États-Unis dominent avec un score de 88/100. Ils bénéficient d’un vaste marché, d’un système éducatif et de dispositifs de recherches solides, ainsi que d’un environnement des affaires et une réglementation favorables au développement numérique. La Chine (73/100) est le pays qui progresse le plus, passant de la 9ème à la 4ème position. Pékin s’appuie en particulier sur ses progrès dans la réglementation et le climat des affaires ainsi que dans les infrastructures logistiques et le système éducatif. Et l’ensemble de la région Asie-Pacifique est bien loti.

En Europe, le Danemark (77/100) devance l’Allemagne, ralentie par «une connectivité qui a progressé moins vite» qu’ailleurs. De son côté, la France (67/100) gagne deux places tout en demeurant un élève médiocre.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Sciences technologies – Un ordinateur quantique ?

Sciences technologies – Un ordinateur quantique ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Pour un écosystème français des technologies quantiques

Pour un écosystème français des technologies quantiques 

Quatre expert(e) s de l’innovation technologique et de son financement appellent, dans une tribune au « Monde », les entreprises françaises à ne pas passer à côté du quantique, prochaine révolution dans le domaine de l’informatique et des communications (extraits)

Tribune.

 

Nous sommes à l’aube d’une révolution technologique. Issue des découvertes de la physique quantique, la possibilité de manipuler des particules élémentaires (électrons, ions, atomes, photons) ouvre la voie à des ruptures dans des domaines tels que l’informatique, les communications, la métrologie ou la cybersécurité. Le cabinet de conseil en stratégie BCG a identifié une trentaine de cas d’usage, et une création de valeur comprise entre 25 et 50 milliards d’euros à horizon 2030.

Les géants du numérique, Google et IBM en tête, mettent au point des prototypes de calculateurs quantiques de plus en plus puissants. Cette course aux technologies quantiques mobilise aussi les gouvernements, à commencer par ceux de la Chine et des Etats-Unis. Le Royaume-Uni et l’Allemagne ont initié une stratégie nationale il y a déjà plusieurs années.


Et la France ? L’année 2020 a débuté par la remise du rapport de la députée Paula Forteza (Français de l’étranger, ex-LRM), et aurait dû s’achever par l’annonce d’un plan stratégique (« Quantique : le virage technologique que la France ne ratera pas »). La crise sanitaire a retardé son lancement, désormais attendu pour les premiers mois de 2021. Il y a pourtant urgence, car sans un engagement fort et rapide de l’Etat pour affirmer ses ambitions académiques, industrielles et économiques, la France ne pourra pas rattraper son retard.

Exception

Au-delà de ce plan, notre pays doit absolument construire un écosystème des technologies quantiques. Nous en possédons déjà plusieurs briques indispensables. Une recherche de très haut niveau, tout d’abord, autour de trois pôles situés à Paris, Saclay et Grenoble. Un portefeuille de start-up de grande qualité, ensuite, comme Pasqal, Qubit Pharmaceuticals, Alice & Bob, C12, Quandela, Cryptonext ou VeriQloud.

Des structures d’investissement, enfin, qu’elles soient publiques, avec le plan Deeptech de Bpifrance, ou privées, avec Quantonation, pionnier dans le financement en amorçage de ces technologies. Cet écosystème naissant commence à se structurer, notamment autour du think tank Le Lab quantique, créé en 2018 pour associer start-up, industriels, PME et ETI. La région Ile-de-France soutient à travers lui une approche originale, le « Pack quantique », pour développer les cas d’usage.

Mais le tableau est encore incomplet. Un point doit concentrer toutes les attentions : la plupart de nos grandes entreprises n’ont pas pris conscience de cette révolution. Une poignée de groupes industriels de premier plan ont commencé à se mobiliser, à l’image d’Atos, Thales, Orange, Air Liquide ou Airbus, mais ils demeurent l’exception quand ils devraient être la règle.

Nouvelles technologies Ordinateur quantique : Pour quand ?

Nouvelles technologies

Ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

 

La chaussure connectée devient elle aussi en quelque sorte intelligente grâce au capteur qu’elle contient. Une évolution qui n’est peut-être pas totalement sans intérêt ; reste cependant à définir son espace de marché réel. Aujourd’hui de toute façon la mode est au tout connecté, les vêtements y compris. Alors à quand aussi le slip connecté pour vérifier l’état de santé de l’intimité des individus, peut-être pour attribuer une note et des alertes en cas de trop fortes dispersions par rapport à la moyenne.

 

Il y a là sans doute un sens possible de développement technologique et économique ! Grâce à un capteur de mouvement, un giroscope et un accéléromètre situés dans le talon de la chaussure et à une communication Bluetooth reliée au smartphone de la personne, le modèle est capable de détecter une chute, de géolocaliser la zone du porteur de chaussures, d’envoyer une alerte aux contacts d’urgence… Un condensé de technologies réduit à 30 grammes, équipé d’une pile bouton à changer tous les trois mois pour des chaussures dont l’espérance de vie est d’un an.

 « En France, on estime le nombre de travailleurs isolés à 1,5 million et une chute grave se produit toutes les 7 minutes en moyenne. C’est la troisième cause d’accident du travail, et jusqu’ici les outils existants étaient peu satisfaisants », explique Franck Cherel, alerté par ses clients en 2015 de cette situation. « A l’époque, c’était le démarrage des objets connectés alors nous nous sommes demandé ce qu’il était possible d’en faire dans le domaine de la sécurité.»

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol