Archive pour le Tag 'technologies'

Nouvelles technologies : la photonique

Nouvelles technologies : la photonique

La photonique est une technologie clé que l’Europe ne peut se permettre de perdre

OPINION. Pour rester compétitive, l’Europe doit être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Notamment la photonique, ou science de la lumière, qui trouve des cas d’usage dans de nombreux secteurs stratégiques, à commencer par l’agriculture. Par Giorgio Anania, PDG de la startup industrielle Aledia.

 

La photonique, ou science de la lumière, est un outil essentiel pour les ambitions de l’Europe en termes de numérique, de technologie de fabrication (industrie 4.0), d’intelligence artificielle, d’agriculture intelligente, de 5G, etc. En tant que technologie habilitante, elle touche à des éléments essentiels liés à des chaînes de valeurs stratégiques, de l’industrie automobile et médicale à l’aérospatiale et aux ordinateurs quantiques.

Actuellement, une vague de chaleur s’abat sur l’Europe et représente une véritable menace pour l’agriculture. En outre, et depuis quelques années, les sols sont trop secs (y compris en France), ce qui affecte davantage le secteur. Selon les experts du climat, dans les prochaines années, nous serons encore plus souvent confrontés à ces conditions qui risquent d’être plus dramatiques. L’agriculture devra donc devenir beaucoup plus efficace, et pas uniquement au niveau de la consommation d’eau.

La photonique contribue à l’amélioration de l’agriculture moderne. En effet, les lasers, l’imagerie hyperspectrale, les capteurs et les LED sont déjà utilisés quotidiennement dans l’agro-industrie. Grâce à ces produits et solutions photoniques, l’agriculture peut surveiller le niveau d’eau, prédire le taux de protéines dans les récoltes de céréales, déterminer le moment opportun pour la récolte des fruits et analyser les produits pour détecter les polluants.

À l’avenir, la photonique pourra contribuer à gérer les fermes verticales. Il s’agit de la culture de denrées alimentaires sur plusieurs niveaux, par exemple dans des hangars. Les fermes verticales, permettent notamment d’économiser de l’espace et de l’eau par rapport aux serres conventionnelles. Les environnements soigneusement contrôlés amélioreront la qualité et le goût des aliments.

Les exemples cités ci-dessus ne représentent qu’un échantillon de ce que la photonique peut apporter. Ses avantages touchent de nombreux autres secteurs clés en France et dans l’UE. Quelques chiffres permettent d’ailleurs d’illustrer l’importance de l’industrie photonique : les entreprises de photonique de l’UE ont pu passer d’un chiffre d’affaires de 76 milliards d’euros en 2015 à 103 milliards d’euros en 2019 – ce qui correspond à un taux de croissance annuel moyen de 7 % sur cette période. Cette croissance dépasse celle de plusieurs secteurs y compris le secteur de la tech avec 4,5 % ou la technologie médicale avec 4,9 %.

Aujourd’hui, le marché de la photonique est desservi par environ 5000 entreprises, principalement des PME. Celles-ci sont extrêmement compétitives, ont créé plus de 30 000 nouveaux emplois au cours des dernières années et ont l’intention de continuer sur cette lancée. Sur le marché mondial, l’industrie photonique européenne s’affirme comme le deuxième plus grand marché, juste derrière la Chine.

Néanmoins, nous sommes confrontés à une concurrence de plus en plus rude – souvent soutenue par des investissements très importantes de la part des États. Il suffit d’observer les autres pays pour connaitre le soutien dont ils disposent. Selon une étude menée en 2017, le gouvernement chinois a subventionné à lui seul l’industrie photonique locale à hauteur d’un milliard d’euros (au moins), sans compter les aides régionales. Selon cette même étude, la Corée du Sud est également très attachée à la photonique et a injecté au moins 2,8 milliards d’euros de fonds publics afin de la propulser au premier rang mondial. Récemment, les États-Unis ont également conclu un partenariat public-privé d’une valeur de 610 millions de dollars afin de contribuer à renforcer la production high-tech de circuits intégrés photoniques dans le pays.

Nous sommes fermement convaincus que pour rester compétitive, l’Europe devrait être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Pour cela, Photonics21 a déposé une proposition auprès de la Commission européenne, dénommée « Horizon Europe 2021-2027 ». En effet, les dépenses consacrées aux recherches provenant des fonds européens (dont le montant est d’environ 500 millions d’euros) sont complétées par des investissements « privés » issus d’acteurs de l’industrie photonique dans des services de recherche et d’innovation, ainsi que des investissements (R+I spending et Capex) d’environ 100 milliards d’euros d’ici à 2027 également.

Nous avons récemment assisté à une crise des semi-conducteurs face à la concurrence internationale. En conséquence, une pénurie des puces électroniques a gravement nui à l’économie européenne. Aujourd’hui, une loi européenne sur les puces électroniques est nécessaire pour renverser la donne. Afin d’éviter que cela ne se reproduise avec la photonique, il faut prévoir un « EU Photonics Act ». La photonique étant indispensable pour les différents secteurs et dont la valeur ne fera qu’augmenter avec le temps. La promotion de la recherche au niveau national et européen est par conséquent primordiale.

Régénération cellulaire possible avec les nouvelles technologies ?

Régénération cellulaire possible avec les nouvelles technologies ?

Pour la première fois, un morceau de tissu humain imprimé en 3D a été implanté sur une patiente, ouvrant la voie à la régénération du corps en imprimant ses propres cellules. Pour des greffons accessibles, naturels avec zéro rejet. ( un papier de la Tribune )

 

C’est une première pour la communauté scientifique et médicale. En mars dernier, une équipe américaine a implanté sur une patiente un pavillon d’oreille biologique imprimé en 3D. La greffe visait à corriger la malformation congénitale d’une des oreilles due à ce qu’on appelle la microtie. Fabriquée par la biotech américaine 3DBio Therapeutics, l’implant a été imprimé avec des cellules de cartilage de la patiente. Auparavant la biotech avait aussi imprimé une coque de la même forme que l’autre oreille. Une coque pour que le mélange de cellules et gel de collagène imprimés garde la bonne forme du pavillon en se développant. Faite de matériaux biodégradables, cette coque sera intégrée au corps de la patiente au fil du temps pour laisser libre ce nouveau pavillon d’oreille vivant. Suite à ce premier succès, 3DBio Therapeutics lance un essai clinique à Los Angeles (Californie) et San Antonio (Texas) sur onze patients atteints de microtie.

L’impression de cartilage

Si l’essai décrit est confirmé par les publications à venir, cette greffe de tissus biologiques imprimés fait partie des grandes innovations médicales attendues. La biotech américaine est restée avare sur les détails de sa technologie, mais l’annonce semble sérieuse alors que 3DBio Therapeutics travaille sur l’impression de cartilage depuis plusieurs années. En France, notre pionnière de l’impression de tissus biologique Proietis est également sur les rangs. Elle devrait implanter le premier morceau de peau imprimée en 3D à l’hôpital de Marseille en fin d’année.

Le principe de l’impression biologique semble simple : cultiver différents types de cellules de peau ou de cartilage afin d’obtenir des « encres » biologiques à imprimer en D. En réalité, il s’agit d’une bio technologie très complexe qui a demandé des années de mise au point. D’une part, les cellules sont vivantes et doivent le rester pendant l’impression et après. L’imprimante doit éviter toute contamination microbienne ou chimique qui dégraderait le tissu. Les différentes cellules doivent toutes être imprimées dans le bon ordre pour fonctionner entre elles comme dans notre organisme. Elles doivent aussi disposer des ressources nécessaires pour survivre le temps que le tissu soit utilisé.

L’unité Inserm BIOTIS travaille sur l’impression de tissus biologiques en 3D. Elle imprime notamment des tumeurs cancéreuses pour comprendre comment elles se développent et à quoi elles réagissent. « Avec ces encres biologiques, les tissus évoluent une fois imprimés et il faut bien comprendre comment, souligne son directeur Jean-Christophe Fricain. Ils doivent aussi être alimentés en oxygène et en nutriments pour survivre. Imprimés en couches fines, on peut les alimenter de l’extérieur in vitro et in vivo le corps les revascularisera une fois qu’ils seront implantés. Mais imprimer un organe plus épais nécessiterait d’y adjoindre un circuit veineux vasculaire hiérarchisé à raccorder aux vaisseaux du patient ce qui est un nouveau défi à relever. »

Autorisation réglementaire

Si certains labos et biotechs impriment des tissus biologiques depuis quelques années, ils sont utilisés dans le cadre d’analyses et de recherches. Jusqu’à l’expérience 3DBio Therapeutics, personne n’avait encore reçu l’autorisation réglementaire de les implanter sur des patients. Car l’opération nécessite des autorisations strictes comme dans le cadre des médicaments.

Depuis 2016, la biotech française Proietis imprime de la peau destinée aux recherches pharma, aux tests toxicologiques et à la cosmétique. Elle est passée au stade supérieur en novembre dernier en installant sa plateforme de bio impression dans un hôpital de Marseille pour lancer des essais cliniques. Là encore, un implant de peau imprimée sera une première. Mais l’exercice nécessite de convaincre les instances sanitaires très vigilantes sur sujet : le procédé d’impression doit être conforme aux bonnes pratiques de fabrication (BPF) du médicament pour que le morceau greffé au patient soit parfaitement sans danger.

« Nous sommes en train de boucler le dossier de demande d’essai clinique avec l’APHM (1), affirme le CEO Fabien Guillemot. Avec les essais précliniques sur des souris, nous avons vérifié la capacité à suturer cette peau imprimée et sa bonne prise sur la plaie de l’implant. Nous pensons envoyer la demande d’essai en septembre et, grâce à la procédure fast track, nous pourrions obtenir l’autorisation en fin d’année. » Comme avec de nombreuses biotechnologies aux tarifs difficiles à supporter par les systèmes de santé, ce nouveau traitement posera la question du modèle économique, alors que cultiver des cellules vivantes ou modifier des gènes coûte bien plus cher que le travail de substances chimiques. « Nous avons cherché des moyens de maîtriser le coût de cette nouvelle technologie. Nous proposons d’implanter nos plateformes dans les plus grands hôpitaux afin de produire là où on implante sans coûts de conservation et de transport. En imprimant les propres cellules de peau du patient, nous évitons aussi tout phénomène de rejet. »

Ces premiers essais cliniques, actuels et à venir, font déjà rêver d’une médecine capable d’imprimer des cœurs et des foies en 3D pour remplacer les organes malades, mais on en est encore vraiment très loin. Le laboratoire de recherche CNRS 3DFab étudie les différentes applications de la fabrication 3D en santé : « Si l’on sait imprimer des tissus simples, on ne maîtrise pas du tout la fabrication de ceux qui, par exemple, filtrent le sang ou produisent des substances nécessaire au corps, affirme le Dr Christophe A. Marquette, Directeur adjoint du laboratoire. On va déjà avoir besoin de cinq ou dix ans pour greffer couramment la peau ou le cartilage. Mais de bien plus encore pour pouvoir implanter des organes plus complexes. » En mars dernier, des chercheurs de l’Université d’Utrecht (Pays-Bas) ont imprimé des cellules hépatiques pour créer un tout petit foie au fonctionnement proche d’un organe naturel. Mais l’organe n’était vraisemblablement pas vascularisé pour survivre et lorsque l’on saura fabriquer des foies ou des reins valides, encore faudra-t-il leur apprendre à fonctionner. « Aujourd’hui, la science travaille sur des systèmes de développement in vitro des organes. Au-delà de leur impression, ils doivent être capables d’entrer en fonction comme ceux d’un embryon. Fabriquer et mettre en service ce type d’organe devrait impliquer des coûts très élevés au regard des volumes que l’on pourra vendre. »

En attendant les peaux et les cartilages imprimés – alors que la Chine travaille sur l’impression de vaisseaux sanguins – l’impression 3D au service de la médecine permet déjà de fabriquer des structures pour des greffons sur mesure. Ces coques sont imprimées dans des matériaux naturels type silicone. On y injecte les cellules du patient pour qu’elles se multiplient dans un milieu adapté et à la bonne forme. C’est le cas des bioprothèses mammaires de la biotech française Healshape, des prothèses faites des cellules du corps lui-même qui reprennent la forme souhaitée après une mastectomie (voir article de La Tribune ).

Tout jeune, mais en pleine expansion, le marché semble prometteur. Data Bridge Market Research estime que ce marché des tissus imprimés en 3D devrait connaître une croissance à un taux de croissance annuel composé (TCAC) de 14,32 % entre 2021 et 2028. Il se développerait en médecine régénérative sous l’effet des maladies chroniques et du vieillissement de la population nécessitant davantage de régénérations.

(1) APHM : Assistance publique hôpitaux de Marseille

Nouvelles technologies : mettre fin aux logiciels espion

Nouvelles technologies : mettre fin aux logiciels espion des mobiles

 

La révélation en juillet 2021 de l’ampleur de la surveillance illégale étatique menée par le logiciel espion Pegasus a provoqué une onde de choc mais les mesures prises, notamment en France, ne sont pas à la hauteur dénonce un collectif de responsables d’ONG des droits humains ( dans le Monde)

 

Le « Projet Pegasus », collaboration sans précédent menée par plus de quatre-vingts journalistes de dix-sept médias dans dix pays et coordonnée par Forbidden Stories avec le soutien technique d’Amnesty International, a révélé comment des Etats ont ciblé des journalistes, des militants, des avocats et des personnalités politiques en ayant recours au logiciel espion Pegasus vendu par l’entreprise israélienne de cybersurveillance NSO Group.

Plusieurs journalistes français ont ainsi été illégalement espionnés – des infections confirmées par les autorités françaises – tandis que, selon les médias, le président Emmanuel Macron, le premier ministre d’alors, Edouard Philippe, et quatorze ministres faisaient partie des cibles potentielles en 2019.

Ces révélations ont marqué un véritable tournant et permis l’adoption de mesures fortes en termes de réglementation et de responsabilité. Ainsi, le ministère américain du commerce a placé NSO Group sur sa liste des entités aux cyberactivités malveillantes. Apple et WhatsApp ont tous deux intenté des poursuites contre NSO devant les tribunaux américains pour avoir ciblé leurs utilisateurs.

Par ailleurs, plusieurs enquêtes et procès ont été ouverts en Inde, au Mexique, en Pologne, en Belgique et en France, tandis que le Parlement européen a lancé une commission d’enquête sur l’utilisation de Pegasus et de logiciels espions de surveillance équivalents. Cela n’a cependant pas empêché la liste de personnes illégalement espionnées par le logiciel israélien de s’allonger depuis un an.

 

Autres développements inquiétants : selon le Citizen Lab, des outils d’espionnage d’autres entreprises seraient susceptibles d’être utilisés à des fins de surveillance illégale au regard du droit international. Dans le même temps, selon les médias, Israël ferait pression sur l’administration Biden aux Etats-Unis pour retirer NSO de la liste des entités aux cyberactivités malveillantes.

La France, pourtant directement concernée par les révélations Pegasus, est restée bien silencieuse sur le sujet. Si l’enquête ouverte en juillet 2021 vient tout juste d’être confiée à un juge d’instruction, Emmanuel Macron aurait négocié avec les autorités israéliennes l’exclusion des numéros français des cibles potentielles du logiciel espion de NSO Group. Une réponse qui ignore totalement la portée globale du scandale et des effets dévastateurs de ces technologies sur les droits humains.

Les gouvernements doivent cesser de penser que le problème est dû à une seule entité nuisible et reconnaître que les outils de réglementation actuels ne sont plus adaptés. Une culture de l’impunité propre à la surveillance numérique ciblée s’est développée et doit être combattue de toute urgence.

Nouvelles technologies : Métavers : espérance autant qu’illusion

Nouvelles technologies : Métavers : espérance autant qu’illusion

Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».

Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ­fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Climat : Des technologies mortelles

Climat : Des technologies mortelles

 

 

Le fait que les techniques de géo-ingénierie soient mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte le journaliste Stéphane Foucart dans le « Monde ».

 

Sur le front du climat, l’information la plus frappante de ces derniers jours n’est ni la sécheresse qui s’installe en France, ni la succession des canicules qui ont mis plusieurs semaines durant des dizaines de millions d’Indiens et de Pakistanais au seuil de l’invivable. Non : l’actualité climatique la plus inquiétante de ces dernières semaines est la création, au sein du Forum de Paris sur la paix, de la Commission mondiale sur la gouvernance des risques liés au dépassement climatique. Le lancement de ses travaux, le 17 mai, est passé inaperçu en France, où seul Le Monde, sous la plume d’Audrey Garric, en a rendu compte. Son mandat devrait pourtant retenir toute notre attention.

 

La quinzaine de membres de cette commission – anciens commissaires européens, chefs d’Etat ou ministres de pays du Nord et du Sud, diplomates de haut niveau, etc. – se pencheront sur des problématiques qui n’ont jusqu’ici jamais été examinées à un tel niveau. Cette fois, il est officiellement question de réfléchir aux conditions de déploiement de techniques de géo-ingénierie – c’est-à-dire des méthodes de modification climatique à grande échelle –, non seulement sur leur faisabilité, leurs bénéfices et leurs risques, mais aussi leur gouvernance.

Le simple fait que ces techniques soient aujourd’hui officiellement mises à l’agenda devrait susciter une profonde inquiétude. Cela signifie d’abord que l’espoir s’estompe de voir le climat terrestre préservé d’une dérive catastrophique. Ensuite, la radicalité de certaines solutions envisagées pour maintenir l’habitabilité d’une Terre surchauffée donne à comprendre la gravité de la situation. Certaines de ces technologies relèvent d’un cauchemar dystopique inimaginable il y a seulement quelques années. Elles sont désormais sur la table – pas encore celle de la diplomatie de la Convention-cadre des Nations unies sur les changements climatiques, mais au moins dans son antichambre.

« Si la réduction considérable et rapide des émissions doit être l’objectif central de toute politique climatique, l’action collective contre le [réchauffement] doit prendre en compte l’ensemble des réponses possibles pour réduire activement les risques, explique ainsi la nouvelle commission dans sa présentation. Ces options comprennent des mesures d’adaptation considérablement élargies pour réduire la vulnérabilité climatique, l’élimination du carbone pour retirer le dioxyde de carbone de l’atmosphère, et éventuellement la géo-ingénierie solaire pour refroidir la planète en réduisant le rayonnement solaire entrant. »

Climat : des technologies en cause

Climat : des  technologies en cause 

 

Le fait que les techniques de géo-ingénierie soient aujourd’hui officiellement mises à l’agenda des réflexions de la nouvelle Commission mondiale sur la gouvernance des risques liés au dépassement climatique devrait susciter une profonde inquiétude, alerte dans sa chronique Stéphane Foucart, journaliste au « Monde ».

 

Sur le front du climat, l’information la plus frappante de ces derniers jours n’est ni la sécheresse qui s’installe en France, ni la succession des canicules qui ont mis plusieurs semaines durant des dizaines de millions d’Indiens et de Pakistanais au seuil de l’invivable. Non : l’actualité climatique la plus inquiétante de ces dernières semaines est la création, au sein du Forum de Paris sur la paix, de la Commission mondiale sur la gouvernance des risques liés au dépassement climatique. Le lancement de ses travaux, le 17 mai, est passé inaperçu en France, où seul Le Monde, sous la plume d’Audrey Garric, en a rendu compte. Son mandat devrait pourtant retenir toute notre attention.

 

La quinzaine de membres de cette commission – anciens commissaires européens, chefs d’Etat ou ministres de pays du Nord et du Sud, diplomates de haut niveau, etc. – se pencheront sur des problématiques qui n’ont jusqu’ici jamais été examinées à un tel niveau. Cette fois, il est officiellement question de réfléchir aux conditions de déploiement de techniques de géo-ingénierie – c’est-à-dire des méthodes de modification climatique à grande échelle –, non seulement sur leur faisabilité, leurs bénéfices et leurs risques, mais aussi leur gouvernance.

Le simple fait que ces techniques soient aujourd’hui officiellement mises à l’agenda devrait susciter une profonde inquiétude. Cela signifie d’abord que l’espoir s’estompe de voir le climat terrestre préservé d’une dérive catastrophique. Ensuite, la radicalité de certaines solutions envisagées pour maintenir l’habitabilité d’une Terre surchauffée donne à comprendre la gravité de la situation. Certaines de ces technologies relèvent d’un cauchemar dystopique inimaginable il y a seulement quelques années. Elles sont désormais sur la table – pas encore celle de la diplomatie de la Convention-cadre des Nations unies sur les changements climatiques, mais au moins dans son antichambre.

 

« Si la réduction considérable et rapide des émissions doit être l’objectif central de toute politique climatique, l’action collective contre le [réchauffement] doit prendre en compte l’ensemble des réponses possibles pour réduire activement les risques, explique ainsi la nouvelle commission dans sa présentation. Ces options comprennent des mesures d’adaptation considérablement élargies pour réduire la vulnérabilité climatique, l’élimination du carbone pour retirer le dioxyde de carbone de l’atmosphère, et éventuellement la géo-ingénierie solaire pour refroidir la planète en réduisant le rayonnement solaire entrant. »

Société: Protéger les cerveaux des nouvelles technologies

 

Société: Protéger les cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Protéger nos cerveaux des nouvelles technologies

Protéger nos cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Connecteriez-vous votre cerveau ?

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Nouvelles technologies–L’aliénation par les machines parlantes ?

Nouvelles technologies–L’aliénation par les machines parlantes 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables. 

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

Nouvelles technologies– Les dangers de la digitalisation et du cloud

Nouvelles technologies– Les dangers  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– risques et excès de la digitalisation et du cloud

Nouvelles technologies– risques et excès  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Technologies et société : un chien virtuel pour 1000 €

  • Technologies et société : un chien virtuel pour 1000 €

 

Officiellement le petit robot, sorte de chien virtuel, est surtout chargé de la sécurité dans l’habitat. En faite  comme il est aussi doté d’Alexa, on pourra aussi échanger avec l’appareil. Comme on arrête difficilement le progrès, cet appareil baptisé Astro, pourrait aussi faire office de chien virtuel. Normalement un chien dans les couts d’alimentation seront inférieurs aux chiens réels. Notons d’ailleurs que les aliments pour chats et chiens constituent souvent le rayon le plus important dans les supermarchés de nos sociétés modernes. Plus besoin d’alimentation donc, sinon peut-être un peu d’électricité.

L’avantage également c’est qu’il n’y aura plus la corvée de sortie du chien qui pourra soit se baladé seul dans le jardin ou dehors, soit resté à l’intérieur.

On imagine tous les progrès technologiques et sociétaux que permettra le chien Astro. Avec les développements techniques il sera même possible de se faire remplacer en réunion par ce chien très intelligent grâce en particulier à la fonction d’Alexa . Le produit sera commercialisé par Amazon qui en général ne se trompe pas de créneau marché porteur.

« Dans cinq ou dix ans, nous pensons qu’il y aura au moins un robot dans chaque maison », assure Dave Limp, paraphrasant quasiment Bill Gates et sa fameuse prédiction du jour où il y aurait un ordinateur par foyer. Amazon prévient déjà qu’Astro n’est pas son dernier robot. La question lancinante sera aussi de savoir si ce fameux chien techno sera ou non mordre les intrus. Et question existentielle fondamentale s’il faudra ou non leur mettre une muselière.

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Comment naissent et se développent les nouvelles technologies

  • Comment naissent et se développent les nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

 

Les constructeurs automobiles s’engagent dans une stratégie folle pour gonfler les voitures de technologies afin de maintenir les prix. En effet d’après les experts de la profession, le logiciel pourrait représenter 60 % du prix de la voiture électrique. Un logiciel complexe justifié par de nombreux services  et exploitant des informations de nombreux capteurs et caméras.

Certes l’électronique dans l’automobile n’est pas un phénomène nouveau et de ce point de vue la complexification des automobiles est déjà largement inutile aujourd’hui et c’est cette complexification qui permet de maintenir des prix très élevés

Selon une étude réalisée par le cabinet Roland Berger, le coût des semi-conducteurs, qui représente 16 % du total dans une voiture diesel ou essence, monte ainsi à 35 % dans une voiture électrique.

Le cabinet PwC estime que la part du logiciel dans la valeur des voitures grimpera à 60 % en 2030. L’électronique permettra de gérer les fonctions d’assistance à la conduite, grâce auxquelles les véhicules vont se garer seuls ou rectifier leurs trajectoires – avant d’être un jour totalement autonomes ! Une utopie totale évidemment car les infrastructures devraient alors être totalement dédies à la seule circulation automobile ( bref la réinvention du train ou du métro ).

La stratégie des constructeurs est surtout commerciale et financière et la voiture risque d’être gonflée de gadgets numériques pour justifier les prix et maintenir des profits. Une stratégie qui risque d’être perdante dans la mesure où la voiture numérique va passer à côté de sa cible sociologique de masse. Seule une partie de la population pourra en effet se payer ses voitures numériques trois à quatre fois plus chères qu’une voiture thermique. Le gagnant de la future stratégie pourrait bien être au contraire celui qui saura déshabiller l’automobile de toute ce fatras numérique inutile. Cela pour rendre l’automobile encore accessible financièrement.

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

 

Spécialiste des enjeux de l’économie numérique, Asma Mhalla plaide, dans une tribune au « Monde », pour la mise en place par les Etats-Unis et l’Union européenne d’une alliance numérique transatlantique.

 

Tribune.
Economie numérique et intelligence artificielle ont brutalement reconfiguré l’échiquier géopolitique mondial. Une nouvelle politique de puissance (power politics) s’installe entre la Chine et les Etats-Unis, avec, comme ambition, la domination des normes technologiques du nouveau système international. Pour fixer nos propres règles, il nous faut rapidement créer une instance de gouvernance numérique euroatlantiste. 

Le défi est grand. L’Europe rêve d’une troisième voie indépendante, les Etats-Unis, de maintenir le statu quo. Mais la conflictualité croissante du monde et l’interdépendance de nos économies appellent à une communauté de destin. Donc de valeurs. Plutôt qu’un repli souverainiste crispé, nous gagnerions à sortir de dogmes anachroniques pour dessiner les contours d’une forme nouvelle de souveraineté élargie et collaborative autour d’une alliance numérique transatlantique.

 

Sur un plan purement technique, l’innovation, relativement homogène, n’est plus un critère suffisamment différenciant entre les forces en présence. Le combat technologique est surtout idéologique. Les socles technologiques et algorithmiques ne sont en effet pas un simple empilement de fonctionnalités neutres. Leur conception, les arbitrages qui les précèdent, les finalités qu’ils poursuivent sont porteurs d’une certaine vision du monde.

Dans la course mondiale aux normes, les lignes de clivage entre les blocs portent donc désormais sur les valeurs, les projets de société, l’architecture politique et technologique associée. Mises sous pression par les puissances concurrentes, les démocraties occidentales, Europe et Etats-Unis en tête, doivent se positionner rapidement, en clarifiant la singularité de notre modèle éthique, technologique et politique.

Or, jusqu’à présent, l’absence d’une gouvernance numérique articulée de part et d’autre de l’Atlantique nous a fait perdre la première partie de la bataille normative internationale tout en fragilisant le pacte démocratique sur le plan national. Plutôt que de se démarquer, nos Etats ont massivement convergé vers le modèle techno-sécuritaire chinois, combinant démocratie et autoritarisme dopé aux algorithmes prédictifs.

 

Nous avons inextricablement enchevêtré les technologies numériques, par nature duales, dans la toile du capitalisme de surveillance. Outrepassant toute considération éthique et démocratique, marqueurs historiques du bloc occidental. A ce compte-là, quelle différence y aura-t-il demain entre le modèle chinois, russe ou occidental ? Pour exister face aux nouvelles puissances, nous allons devoir renouveler rapidement nos modes de gouvernance.

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

par Tim Higgins  Dans le Wall Street Journal

 

Un nouveau choc des titans de la tech se profile, alors qu’Apple et Microsoft sont en train de raviver une querelle qui remonte aux premiers jours de l’ère des ordinateurs personnels.

Les cofondateurs des deux entreprises, Steve Jobs chez Apple et Bill Gates chez Microsoft, se sont affrontés au début de leur histoire, avant d’enterrer la hache de guerre. Ces derniers mois, les deux sociétés ont ressorti les armes, lors d’une escarmouche qui a mis en émoi leurs clients et d’autres entreprises de la tech.

Apple, lors de son conflit juridique avec Epic Games, a accusé Microsoft de tirer les ficelles dans l’affaire impliquant le développeur de jeux vidéo. Epic Games a attaqué le fabricant de l’iPhone pour pratiques anticoncurrentielles, alors que Microsoft reprochait à ce dernier de restreindre ses possibilités d’atteindre des clients via son propre service dédié aux jeux vidéo.

Jeudi, lors du lancement de Windows 11, le président-directeur général de Microsoft, Satya Nadella, a fait ce qui a largement été perçu comme une pique à Apple et au contrôle qu’il exerce sur l’App Store de son iPhone, sans toutefois mentionner directement son rival. Les deux entreprises placent actuellement leurs pions en vue de la bataille imminente qui se prépare sur le marché de la réalité augmentée et virtuelle, considérée comme la prochaine évolution majeure de l’informatique.

« Le monde a besoin d’une plateforme plus ouverte, qui permette aux applications de devenir des plateformes à part entière », a asséné M. Nadella jeudi dernier lors de l’événement qui se tenait sous forme virtuelle.

Apple justifie le contrôle strict qu’il exerce sur son App Store en affirmant qu’il offre à ses utilisateurs une meilleure protection de leur vie privée et une cybersécurité accrue. D’autres entreprises, dont Facebook et Epic Games, affirment que la société exerce de manière inéquitable son pouvoir de contrôle sur un accès à plus d’un milliard d’utilisateurs d’iPhone.

M. Nadella présente Microsoft comme le défenseur des développeurs et un bon partenaire pour eux. La société s’est par exemple associée à Amazon, pour proposer aux utilisateurs de Windows 11 de télécharger les versions Android (le système de Google) des applications du géant du commerce électronique, alors qu’Apple a renforcé le verrouillage de ses appareils et de ses applications.

Il s’agit d’une certaine manière d’une inversion des rôles. Dans le passé, Apple était considéré comme le petit chouchou des créateurs de contenu, qui luttait contre un monopole aux méthodes musclées.

Fondés au milieu des années 1970, Apple et Microsoft sont les plus anciens géants de la tech moderne. Jeunes, MM. Jobs et Gates se sont disputés pendant des années. A une époque, M. Jobs a accusé Microsoft de voler les idées d’Apple et de proposer un produit mal conçu. Ils ont publiquement conclu une trêve aux alentours de 1997, peu après le retour de M. Jobs à la tête de l’entreprise qu’il avait contribué à créer. Cette année-là, M. Gates a investi 150 millions de dollars dans Apple, ce qui a permis d’injecter les liquidités dont M. Jobs avait cruellement besoin pour écrire son deuxième acte à la tête de la société.

Depuis, les passes d’armes entre les deux entreprises se sont, à l’occasion, poursuivies. Apple a par exemple diffusé des spots télévisés se moquant des utilisateurs de PC, ce qui a poussé Microsoft à lancer une contre-campagne.

A un moment, M. Jobs a estimé que cette rivalité était devenue malsaine. « Si le jeu était un jeu à somme nulle, où pour qu’Apple gagne, Microsoft devait perdre, alors Apple allait perdre », analysait-il ainsi au cours d’une interview conjointe avec M. Gates lors d’une conférence du Wall Street Journal en 2009, à une époque où le géant des logiciels était beaucoup plus important. « Nous avons essayé d’arranger les choses », déclarait alors M. Jobs.

Jusqu’à récemment, la nouvelle génération de dirigeants des deux entreprises semblait désireuse de préserver publiquement la paix. Tim Cook a succédé à M. Jobs chez Apple en 2011, et M. Nadella est devenu le PDG de Microsoft en 2014. L’une des premières grandes mesures prises publiquement par M. Nadella a été d’intégrer les applications de bureautique Office développées par son entreprise sur l’iPad, la tablette d’Apple.

« Microsoft et Apple sont souvent passés d’ennemis acharnés à meilleurs ennemis, il y a eu une succession de hauts et de bas », détaille Patrick Moorhead, président de la société technologique Moor Insights & Strategy. « Désormais, ils sont à nouveau ennemis. »

Aujourd’hui, les deux adversaires sont devenus les deux grandes superpuissances du monde des affaires aux Etats-Unis. Elles sont les deux seules sociétés américaines à être évaluées à au moins 2 000 milliards de dollars. Elles emploient toutes deux plus de 140 000 personnes et leur chiffre d’affaires annuel combiné dépasse les 400 milliards de dollars.

Le pouvoir de contrôle qu’Apple exerce sur ce qui est mis sur l’iPhone et par qui est au cœur du conflit actuel. Microsoft n’hésite pas à critiquer ces restrictions, qu’il considère comme un obstacle à la croissance de ses activités dans les jeux vidéo, en plein essor.

Cette année, Microsoft a soutenu le créateur de jeux vidéo Epic Games lorsqu’il a intenté un procès à Apple pour pratiques anticoncurrentielles. Des allégations que la société de Cupertino (Californie) réfute. Apple prélève jusqu’à 30 % sur les transactions réalisées sur les applications lorsqu’elles sont téléchargées via l’App Store.

Epic Games a demandé la comparution de Lori Wright, vice-présidente du développement commercial de Microsoft pour les jeux, les médias et le divertissement, afin qu’elle décrive sa tentative avortée d’introduire sur l’App Store d’Apple un service de streaming comportant un bouquet de jeux vidéo appelé Game Pass Ultimate. Selon elle, Apple a traité ce produit Microsoft différemment des services de streaming fournis par d’autres sociétés, par exemple Netflix.

Dans un mémoire déposé devant les tribunaux, Apple a tenté de discréditer le témoignage de Lori Wright, et de semer le doute sur les motivations d’autres témoins cités par Epic, laissant entendre que Microsoft tirait les ficelles de cette action en justice.

« Un observateur raisonnable pourrait se demander si Epic ne sert pas de cheval de Troie à Microsoft », a ainsi indiqué Apple dans un document transmis au tribunal. « Pourtant, Microsoft s’est protégé de toute exposition significative dans ce litige en n’apparaissant pas comme une partie ou en n’envoyant pas de représentant de l’entreprise pour témoigner. »

Un juge devrait se prononcer sur l’ensemble de l’affaire dans les semaines à venir.

Si Microsoft a indiqué réduire la commission qu’il prélevait sur le contenu vendu sur sa nouvelle boutique d’applications, la société continuera à prendre 30 % sur les jeux achetés sur sa console Xbox.

Apple et Microsoft sont tous deux en conflit avec d’autres entreprises. Apple est en désaccord avec Facebook sur le suivi des données des utilisateurs, tandis que Microsoft est en conflit avec le service cloud d’Amazon et des sociétés telles que Zoom et Slack.

Mais aucun de ces litiges n’a la même résonance historique.

Les choses s’accélèrent également car Apple et Microsoft se préparent à conquérir le marché encore émergent de la réalité augmentée, qui consiste à superposer des informations numériques au monde réel. Microsoft vend déjà son casque HoloLens, et Apple devrait dévoiler son dispositif dès l’année prochaine.

« Nous partons du principe que [ce marché] sera ouvert », déclare Alex Kipman, Microsoft Technical Fellow. « Ce ne sera pas : “vous devez passer par notre magasin d’applications et payer une taxe”, a-t-il affirmé le mois dernier dans le cadre du festival The Future of Everything organisé par The Wall Street Journal.

Les responsables du secteur s’attendent à ce qu’Apple transpose les règles de son App Store dans le monde virtuel. Apple n’a pas fait de commentaires sur ses projets.

« C’est définitivement en train de chauffer », résume Gene Munster, un observateur expérimenté des deux entreprises, qui est directeur associé de Loup Ventures, une société de capital-risque spécialisée dans la recherche technologique. « La réalité augmentée est vraiment importante, et c’est la prochaine opportunité pour Microsoft de repasser en mode croissance… et Apple, lui, veut évidemment défendre son territoire dans le domaine du mobile. »

Traduit à partir de la version originale en anglais

Technologies- Numérique : la France en retard ( Euler Hermes)

Technologies- Numérique : la France en retard ( Euler Hermes)

L’indice «d’agilité digitale» de l’assureur-crédit Euler Hermes situe la France en 15ème position, un léger progrès par rapport au classement précédent. La Chine bondit à la 4ème place.

D’après les indicateurs d’Euler Hermes ( filiale d’Allianz)  qui classe les performances numériques de chaque État, la France est en retard derrière les très grandes puissances. La France en quinzième position mais loin  derrière les États-Unis toujours premiers de la classe ou la Chine qui fait un grand bond par rapport au classement de fin 2018 et se retrouve en quatrième position. Loin également derrière l’Allemagne en légère perte de vitesse à la 3ème place, le Danemark (2ème) ou encore la Corée du Sud (12ème).

Cet indicateur « nous permet de savoir quel pays offre les meilleures conditions aux entreprises traditionnelles pour réussir leur digitalisation et le meilleur environnement aux entreprises digitales pour se développer», explique Alexis Garatti, directeur des recherches économiques d’Euler Hermes.

Les États-Unis dominent avec un score de 88/100. Ils bénéficient d’un vaste marché, d’un système éducatif et de dispositifs de recherches solides, ainsi que d’un environnement des affaires et une réglementation favorables au développement numérique. La Chine (73/100) est le pays qui progresse le plus, passant de la 9ème à la 4ème position. Pékin s’appuie en particulier sur ses progrès dans la réglementation et le climat des affaires ainsi que dans les infrastructures logistiques et le système éducatif. Et l’ensemble de la région Asie-Pacifique est bien loti.

En Europe, le Danemark (77/100) devance l’Allemagne, ralentie par «une connectivité qui a progressé moins vite» qu’ailleurs. De son côté, la France (67/100) gagne deux places tout en demeurant un élève médiocre.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol