Archive pour le Tag 'technologies'

Technologies et société : un chien virtuel pour 1000 €

  • Technologies et société : un chien virtuel pour 1000 €

 

Officiellement le petit robot, sorte de chien virtuel, est surtout chargé de la sécurité dans l’habitat. En faite  comme il est aussi doté d’Alexa, on pourra aussi échanger avec l’appareil. Comme on arrête difficilement le progrès, cet appareil baptisé Astro, pourrait aussi faire office de chien virtuel. Normalement un chien dans les couts d’alimentation seront inférieurs aux chiens réels. Notons d’ailleurs que les aliments pour chats et chiens constituent souvent le rayon le plus important dans les supermarchés de nos sociétés modernes. Plus besoin d’alimentation donc, sinon peut-être un peu d’électricité.

L’avantage également c’est qu’il n’y aura plus la corvée de sortie du chien qui pourra soit se baladé seul dans le jardin ou dehors, soit resté à l’intérieur.

On imagine tous les progrès technologiques et sociétaux que permettra le chien Astro. Avec les développements techniques il sera même possible de se faire remplacer en réunion par ce chien très intelligent grâce en particulier à la fonction d’Alexa . Le produit sera commercialisé par Amazon qui en général ne se trompe pas de créneau marché porteur.

« Dans cinq ou dix ans, nous pensons qu’il y aura au moins un robot dans chaque maison », assure Dave Limp, paraphrasant quasiment Bill Gates et sa fameuse prédiction du jour où il y aurait un ordinateur par foyer. Amazon prévient déjà qu’Astro n’est pas son dernier robot. La question lancinante sera aussi de savoir si ce fameux chien techno sera ou non mordre les intrus. Et question existentielle fondamentale s’il faudra ou non leur mettre une muselière.

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Comment naissent et se développent les nouvelles technologies

  • Comment naissent et se développent les nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

Auto : les constructeurs gonflent les voitures de technologies pour justifier les prix

 

Les constructeurs automobiles s’engagent dans une stratégie folle pour gonfler les voitures de technologies afin de maintenir les prix. En effet d’après les experts de la profession, le logiciel pourrait représenter 60 % du prix de la voiture électrique. Un logiciel complexe justifié par de nombreux services  et exploitant des informations de nombreux capteurs et caméras.

Certes l’électronique dans l’automobile n’est pas un phénomène nouveau et de ce point de vue la complexification des automobiles est déjà largement inutile aujourd’hui et c’est cette complexification qui permet de maintenir des prix très élevés

Selon une étude réalisée par le cabinet Roland Berger, le coût des semi-conducteurs, qui représente 16 % du total dans une voiture diesel ou essence, monte ainsi à 35 % dans une voiture électrique.

Le cabinet PwC estime que la part du logiciel dans la valeur des voitures grimpera à 60 % en 2030. L’électronique permettra de gérer les fonctions d’assistance à la conduite, grâce auxquelles les véhicules vont se garer seuls ou rectifier leurs trajectoires – avant d’être un jour totalement autonomes ! Une utopie totale évidemment car les infrastructures devraient alors être totalement dédies à la seule circulation automobile ( bref la réinvention du train ou du métro ).

La stratégie des constructeurs est surtout commerciale et financière et la voiture risque d’être gonflée de gadgets numériques pour justifier les prix et maintenir des profits. Une stratégie qui risque d’être perdante dans la mesure où la voiture numérique va passer à côté de sa cible sociologique de masse. Seule une partie de la population pourra en effet se payer ses voitures numériques trois à quatre fois plus chères qu’une voiture thermique. Le gagnant de la future stratégie pourrait bien être au contraire celui qui saura déshabiller l’automobile de toute ce fatras numérique inutile. Cela pour rendre l’automobile encore accessible financièrement.

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

Nouvelles technologies–Numérique : Pour une gouvernance internationale transatlantique

 

Spécialiste des enjeux de l’économie numérique, Asma Mhalla plaide, dans une tribune au « Monde », pour la mise en place par les Etats-Unis et l’Union européenne d’une alliance numérique transatlantique.

 

Tribune.
Economie numérique et intelligence artificielle ont brutalement reconfiguré l’échiquier géopolitique mondial. Une nouvelle politique de puissance (power politics) s’installe entre la Chine et les Etats-Unis, avec, comme ambition, la domination des normes technologiques du nouveau système international. Pour fixer nos propres règles, il nous faut rapidement créer une instance de gouvernance numérique euroatlantiste. 

Le défi est grand. L’Europe rêve d’une troisième voie indépendante, les Etats-Unis, de maintenir le statu quo. Mais la conflictualité croissante du monde et l’interdépendance de nos économies appellent à une communauté de destin. Donc de valeurs. Plutôt qu’un repli souverainiste crispé, nous gagnerions à sortir de dogmes anachroniques pour dessiner les contours d’une forme nouvelle de souveraineté élargie et collaborative autour d’une alliance numérique transatlantique.

 

Sur un plan purement technique, l’innovation, relativement homogène, n’est plus un critère suffisamment différenciant entre les forces en présence. Le combat technologique est surtout idéologique. Les socles technologiques et algorithmiques ne sont en effet pas un simple empilement de fonctionnalités neutres. Leur conception, les arbitrages qui les précèdent, les finalités qu’ils poursuivent sont porteurs d’une certaine vision du monde.

Dans la course mondiale aux normes, les lignes de clivage entre les blocs portent donc désormais sur les valeurs, les projets de société, l’architecture politique et technologique associée. Mises sous pression par les puissances concurrentes, les démocraties occidentales, Europe et Etats-Unis en tête, doivent se positionner rapidement, en clarifiant la singularité de notre modèle éthique, technologique et politique.

Or, jusqu’à présent, l’absence d’une gouvernance numérique articulée de part et d’autre de l’Atlantique nous a fait perdre la première partie de la bataille normative internationale tout en fragilisant le pacte démocratique sur le plan national. Plutôt que de se démarquer, nos Etats ont massivement convergé vers le modèle techno-sécuritaire chinois, combinant démocratie et autoritarisme dopé aux algorithmes prédictifs.

 

Nous avons inextricablement enchevêtré les technologies numériques, par nature duales, dans la toile du capitalisme de surveillance. Outrepassant toute considération éthique et démocratique, marqueurs historiques du bloc occidental. A ce compte-là, quelle différence y aura-t-il demain entre le modèle chinois, russe ou occidental ? Pour exister face aux nouvelles puissances, nous allons devoir renouveler rapidement nos modes de gouvernance.

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

Nouvelles technologies–La nouvelle guerre entre Apple et Microsoft

par Tim Higgins  Dans le Wall Street Journal

 

Un nouveau choc des titans de la tech se profile, alors qu’Apple et Microsoft sont en train de raviver une querelle qui remonte aux premiers jours de l’ère des ordinateurs personnels.

Les cofondateurs des deux entreprises, Steve Jobs chez Apple et Bill Gates chez Microsoft, se sont affrontés au début de leur histoire, avant d’enterrer la hache de guerre. Ces derniers mois, les deux sociétés ont ressorti les armes, lors d’une escarmouche qui a mis en émoi leurs clients et d’autres entreprises de la tech.

Apple, lors de son conflit juridique avec Epic Games, a accusé Microsoft de tirer les ficelles dans l’affaire impliquant le développeur de jeux vidéo. Epic Games a attaqué le fabricant de l’iPhone pour pratiques anticoncurrentielles, alors que Microsoft reprochait à ce dernier de restreindre ses possibilités d’atteindre des clients via son propre service dédié aux jeux vidéo.

Jeudi, lors du lancement de Windows 11, le président-directeur général de Microsoft, Satya Nadella, a fait ce qui a largement été perçu comme une pique à Apple et au contrôle qu’il exerce sur l’App Store de son iPhone, sans toutefois mentionner directement son rival. Les deux entreprises placent actuellement leurs pions en vue de la bataille imminente qui se prépare sur le marché de la réalité augmentée et virtuelle, considérée comme la prochaine évolution majeure de l’informatique.

« Le monde a besoin d’une plateforme plus ouverte, qui permette aux applications de devenir des plateformes à part entière », a asséné M. Nadella jeudi dernier lors de l’événement qui se tenait sous forme virtuelle.

Apple justifie le contrôle strict qu’il exerce sur son App Store en affirmant qu’il offre à ses utilisateurs une meilleure protection de leur vie privée et une cybersécurité accrue. D’autres entreprises, dont Facebook et Epic Games, affirment que la société exerce de manière inéquitable son pouvoir de contrôle sur un accès à plus d’un milliard d’utilisateurs d’iPhone.

M. Nadella présente Microsoft comme le défenseur des développeurs et un bon partenaire pour eux. La société s’est par exemple associée à Amazon, pour proposer aux utilisateurs de Windows 11 de télécharger les versions Android (le système de Google) des applications du géant du commerce électronique, alors qu’Apple a renforcé le verrouillage de ses appareils et de ses applications.

Il s’agit d’une certaine manière d’une inversion des rôles. Dans le passé, Apple était considéré comme le petit chouchou des créateurs de contenu, qui luttait contre un monopole aux méthodes musclées.

Fondés au milieu des années 1970, Apple et Microsoft sont les plus anciens géants de la tech moderne. Jeunes, MM. Jobs et Gates se sont disputés pendant des années. A une époque, M. Jobs a accusé Microsoft de voler les idées d’Apple et de proposer un produit mal conçu. Ils ont publiquement conclu une trêve aux alentours de 1997, peu après le retour de M. Jobs à la tête de l’entreprise qu’il avait contribué à créer. Cette année-là, M. Gates a investi 150 millions de dollars dans Apple, ce qui a permis d’injecter les liquidités dont M. Jobs avait cruellement besoin pour écrire son deuxième acte à la tête de la société.

Depuis, les passes d’armes entre les deux entreprises se sont, à l’occasion, poursuivies. Apple a par exemple diffusé des spots télévisés se moquant des utilisateurs de PC, ce qui a poussé Microsoft à lancer une contre-campagne.

A un moment, M. Jobs a estimé que cette rivalité était devenue malsaine. « Si le jeu était un jeu à somme nulle, où pour qu’Apple gagne, Microsoft devait perdre, alors Apple allait perdre », analysait-il ainsi au cours d’une interview conjointe avec M. Gates lors d’une conférence du Wall Street Journal en 2009, à une époque où le géant des logiciels était beaucoup plus important. « Nous avons essayé d’arranger les choses », déclarait alors M. Jobs.

Jusqu’à récemment, la nouvelle génération de dirigeants des deux entreprises semblait désireuse de préserver publiquement la paix. Tim Cook a succédé à M. Jobs chez Apple en 2011, et M. Nadella est devenu le PDG de Microsoft en 2014. L’une des premières grandes mesures prises publiquement par M. Nadella a été d’intégrer les applications de bureautique Office développées par son entreprise sur l’iPad, la tablette d’Apple.

« Microsoft et Apple sont souvent passés d’ennemis acharnés à meilleurs ennemis, il y a eu une succession de hauts et de bas », détaille Patrick Moorhead, président de la société technologique Moor Insights & Strategy. « Désormais, ils sont à nouveau ennemis. »

Aujourd’hui, les deux adversaires sont devenus les deux grandes superpuissances du monde des affaires aux Etats-Unis. Elles sont les deux seules sociétés américaines à être évaluées à au moins 2 000 milliards de dollars. Elles emploient toutes deux plus de 140 000 personnes et leur chiffre d’affaires annuel combiné dépasse les 400 milliards de dollars.

Le pouvoir de contrôle qu’Apple exerce sur ce qui est mis sur l’iPhone et par qui est au cœur du conflit actuel. Microsoft n’hésite pas à critiquer ces restrictions, qu’il considère comme un obstacle à la croissance de ses activités dans les jeux vidéo, en plein essor.

Cette année, Microsoft a soutenu le créateur de jeux vidéo Epic Games lorsqu’il a intenté un procès à Apple pour pratiques anticoncurrentielles. Des allégations que la société de Cupertino (Californie) réfute. Apple prélève jusqu’à 30 % sur les transactions réalisées sur les applications lorsqu’elles sont téléchargées via l’App Store.

Epic Games a demandé la comparution de Lori Wright, vice-présidente du développement commercial de Microsoft pour les jeux, les médias et le divertissement, afin qu’elle décrive sa tentative avortée d’introduire sur l’App Store d’Apple un service de streaming comportant un bouquet de jeux vidéo appelé Game Pass Ultimate. Selon elle, Apple a traité ce produit Microsoft différemment des services de streaming fournis par d’autres sociétés, par exemple Netflix.

Dans un mémoire déposé devant les tribunaux, Apple a tenté de discréditer le témoignage de Lori Wright, et de semer le doute sur les motivations d’autres témoins cités par Epic, laissant entendre que Microsoft tirait les ficelles de cette action en justice.

« Un observateur raisonnable pourrait se demander si Epic ne sert pas de cheval de Troie à Microsoft », a ainsi indiqué Apple dans un document transmis au tribunal. « Pourtant, Microsoft s’est protégé de toute exposition significative dans ce litige en n’apparaissant pas comme une partie ou en n’envoyant pas de représentant de l’entreprise pour témoigner. »

Un juge devrait se prononcer sur l’ensemble de l’affaire dans les semaines à venir.

Si Microsoft a indiqué réduire la commission qu’il prélevait sur le contenu vendu sur sa nouvelle boutique d’applications, la société continuera à prendre 30 % sur les jeux achetés sur sa console Xbox.

Apple et Microsoft sont tous deux en conflit avec d’autres entreprises. Apple est en désaccord avec Facebook sur le suivi des données des utilisateurs, tandis que Microsoft est en conflit avec le service cloud d’Amazon et des sociétés telles que Zoom et Slack.

Mais aucun de ces litiges n’a la même résonance historique.

Les choses s’accélèrent également car Apple et Microsoft se préparent à conquérir le marché encore émergent de la réalité augmentée, qui consiste à superposer des informations numériques au monde réel. Microsoft vend déjà son casque HoloLens, et Apple devrait dévoiler son dispositif dès l’année prochaine.

« Nous partons du principe que [ce marché] sera ouvert », déclare Alex Kipman, Microsoft Technical Fellow. « Ce ne sera pas : “vous devez passer par notre magasin d’applications et payer une taxe”, a-t-il affirmé le mois dernier dans le cadre du festival The Future of Everything organisé par The Wall Street Journal.

Les responsables du secteur s’attendent à ce qu’Apple transpose les règles de son App Store dans le monde virtuel. Apple n’a pas fait de commentaires sur ses projets.

« C’est définitivement en train de chauffer », résume Gene Munster, un observateur expérimenté des deux entreprises, qui est directeur associé de Loup Ventures, une société de capital-risque spécialisée dans la recherche technologique. « La réalité augmentée est vraiment importante, et c’est la prochaine opportunité pour Microsoft de repasser en mode croissance… et Apple, lui, veut évidemment défendre son territoire dans le domaine du mobile. »

Traduit à partir de la version originale en anglais

Technologies- Numérique : la France en retard ( Euler Hermes)

Technologies- Numérique : la France en retard ( Euler Hermes)

L’indice «d’agilité digitale» de l’assureur-crédit Euler Hermes situe la France en 15ème position, un léger progrès par rapport au classement précédent. La Chine bondit à la 4ème place.

D’après les indicateurs d’Euler Hermes ( filiale d’Allianz)  qui classe les performances numériques de chaque État, la France est en retard derrière les très grandes puissances. La France en quinzième position mais loin  derrière les États-Unis toujours premiers de la classe ou la Chine qui fait un grand bond par rapport au classement de fin 2018 et se retrouve en quatrième position. Loin également derrière l’Allemagne en légère perte de vitesse à la 3ème place, le Danemark (2ème) ou encore la Corée du Sud (12ème).

Cet indicateur « nous permet de savoir quel pays offre les meilleures conditions aux entreprises traditionnelles pour réussir leur digitalisation et le meilleur environnement aux entreprises digitales pour se développer», explique Alexis Garatti, directeur des recherches économiques d’Euler Hermes.

Les États-Unis dominent avec un score de 88/100. Ils bénéficient d’un vaste marché, d’un système éducatif et de dispositifs de recherches solides, ainsi que d’un environnement des affaires et une réglementation favorables au développement numérique. La Chine (73/100) est le pays qui progresse le plus, passant de la 9ème à la 4ème position. Pékin s’appuie en particulier sur ses progrès dans la réglementation et le climat des affaires ainsi que dans les infrastructures logistiques et le système éducatif. Et l’ensemble de la région Asie-Pacifique est bien loti.

En Europe, le Danemark (77/100) devance l’Allemagne, ralentie par «une connectivité qui a progressé moins vite» qu’ailleurs. De son côté, la France (67/100) gagne deux places tout en demeurant un élève médiocre.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Sciences technologies – Un ordinateur quantique ?

Sciences technologies – Un ordinateur quantique ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Pour un écosystème français des technologies quantiques

Pour un écosystème français des technologies quantiques 

Quatre expert(e) s de l’innovation technologique et de son financement appellent, dans une tribune au « Monde », les entreprises françaises à ne pas passer à côté du quantique, prochaine révolution dans le domaine de l’informatique et des communications (extraits)

Tribune.

 

Nous sommes à l’aube d’une révolution technologique. Issue des découvertes de la physique quantique, la possibilité de manipuler des particules élémentaires (électrons, ions, atomes, photons) ouvre la voie à des ruptures dans des domaines tels que l’informatique, les communications, la métrologie ou la cybersécurité. Le cabinet de conseil en stratégie BCG a identifié une trentaine de cas d’usage, et une création de valeur comprise entre 25 et 50 milliards d’euros à horizon 2030.

Les géants du numérique, Google et IBM en tête, mettent au point des prototypes de calculateurs quantiques de plus en plus puissants. Cette course aux technologies quantiques mobilise aussi les gouvernements, à commencer par ceux de la Chine et des Etats-Unis. Le Royaume-Uni et l’Allemagne ont initié une stratégie nationale il y a déjà plusieurs années.


Et la France ? L’année 2020 a débuté par la remise du rapport de la députée Paula Forteza (Français de l’étranger, ex-LRM), et aurait dû s’achever par l’annonce d’un plan stratégique (« Quantique : le virage technologique que la France ne ratera pas »). La crise sanitaire a retardé son lancement, désormais attendu pour les premiers mois de 2021. Il y a pourtant urgence, car sans un engagement fort et rapide de l’Etat pour affirmer ses ambitions académiques, industrielles et économiques, la France ne pourra pas rattraper son retard.

Exception

Au-delà de ce plan, notre pays doit absolument construire un écosystème des technologies quantiques. Nous en possédons déjà plusieurs briques indispensables. Une recherche de très haut niveau, tout d’abord, autour de trois pôles situés à Paris, Saclay et Grenoble. Un portefeuille de start-up de grande qualité, ensuite, comme Pasqal, Qubit Pharmaceuticals, Alice & Bob, C12, Quandela, Cryptonext ou VeriQloud.

Des structures d’investissement, enfin, qu’elles soient publiques, avec le plan Deeptech de Bpifrance, ou privées, avec Quantonation, pionnier dans le financement en amorçage de ces technologies. Cet écosystème naissant commence à se structurer, notamment autour du think tank Le Lab quantique, créé en 2018 pour associer start-up, industriels, PME et ETI. La région Ile-de-France soutient à travers lui une approche originale, le « Pack quantique », pour développer les cas d’usage.

Mais le tableau est encore incomplet. Un point doit concentrer toutes les attentions : la plupart de nos grandes entreprises n’ont pas pris conscience de cette révolution. Une poignée de groupes industriels de premier plan ont commencé à se mobiliser, à l’image d’Atos, Thales, Orange, Air Liquide ou Airbus, mais ils demeurent l’exception quand ils devraient être la règle.

Nouvelles technologies Ordinateur quantique : Pour quand ?

Nouvelles technologies

Ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

Nouvelles technologies:La chaussure de sécurité connectée… à quand le slip connecté ?

 

La chaussure connectée devient elle aussi en quelque sorte intelligente grâce au capteur qu’elle contient. Une évolution qui n’est peut-être pas totalement sans intérêt ; reste cependant à définir son espace de marché réel. Aujourd’hui de toute façon la mode est au tout connecté, les vêtements y compris. Alors à quand aussi le slip connecté pour vérifier l’état de santé de l’intimité des individus, peut-être pour attribuer une note et des alertes en cas de trop fortes dispersions par rapport à la moyenne.

 

Il y a là sans doute un sens possible de développement technologique et économique ! Grâce à un capteur de mouvement, un giroscope et un accéléromètre situés dans le talon de la chaussure et à une communication Bluetooth reliée au smartphone de la personne, le modèle est capable de détecter une chute, de géolocaliser la zone du porteur de chaussures, d’envoyer une alerte aux contacts d’urgence… Un condensé de technologies réduit à 30 grammes, équipé d’une pile bouton à changer tous les trois mois pour des chaussures dont l’espérance de vie est d’un an.

 « En France, on estime le nombre de travailleurs isolés à 1,5 million et une chute grave se produit toutes les 7 minutes en moyenne. C’est la troisième cause d’accident du travail, et jusqu’ici les outils existants étaient peu satisfaisants », explique Franck Cherel, alerté par ses clients en 2015 de cette situation. « A l’époque, c’était le démarrage des objets connectés alors nous nous sommes demandé ce qu’il était possible d’en faire dans le domaine de la sécurité.»

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Technologies-Quel intérêt de la 5G ?

Technologies-Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

Nouvelles technologies- Quel intérêt de la 5G ?

Nouvelles technologies- Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

 

Nouvelles technologies-L’avenir: la zéro G

Nouvelles technologies-L’avenir: la zéro G

Le patron de Sigfox, Ludovic Le Moan dans un entretien accordé à La Tribune dit tout le mal qu’il pense de la 5G et explique ce que serait la zéro G.

 

Pourquoi avoir publié votre livre intitulé « Zéro G » en ce début d’année, alors que l’actualité des télécommunications en 2020 est accaparée par l’émergence de la 5G ? Quel message avez-vous voulu faire passer à travers celui-ci ?

Ludovic Le Moan - J’ai voulu écrire ce livre et le nommer de cette façon non pas en prétendant que c’est l’opposé de la 5G. Pour moi, cette technologie consiste à permettre d’avoir plus de capacité haut débit dans des lieux où il y a beaucoup de monde, c’est cela ma définition de la 5G, le reste n’est que de la foutaise. Je ne dis pas qu’il ne faut pas de 5G, mais à l’opposé du spectre, il y a des besoins de frugalité et dans mon livre, je démontre que la zéro G c’est la frugalité. Le secteur des télécommunications pourrait être un domaine de réflexion pour continuer à progresser sans pour autant pousser les curseurs dans le rouge. Je ne suis pas dans la décroissance joyeuse, mais l’idée est d’instaurer une réflexion frugale dans le développement de l’économie.

La zéro G peut être un moyen d’apporter un progrès social, environnemental et dans la souveraineté. Ce dernier aspect est la plus grande menace que la France peut avoir. Si nous laissons quelques années, quand on observe la puissance des GAFA et des Chinois, nous ne sommes pas très loin de devenir demain dépendants de ces deux forces-là. Plus que gagner de l’argent, je démontre comment on peut faire pour avoir une alternative.

Vous venez de l’aborder : ce terme de  »frugalité » revient des dizaines de fois au cours des 170 pages de votre ouvrage. Est-ce un choix volontaire et assumé ? Pourquoi cette insistance ?

La frugalité et la zéro G, pour moi, c’est ni plus ni moins qu’adapter les moyens aux besoins. Ma priorité est celle-ci : répondre à un besoin par le bon moyen. Quand on dit qu’il faut la 5G pour tout le monde, honnêtement je ne suis pas d’accord. Alors que la Terre brûle, je ne me casse pas la tête, après la 4, je fais la 5 en mettant plus de débit parce que cela se vend bien. Les consommateurs mangent cela en achetant les derniers smartphones et écrans. Cela fonctionne depuis la nuit des temps, avec un marketing de plus en plus puissant. Est-ce que c’est que nous voulons ? Pour moi, la réponse est non.

Nous pouvons créer des choses utiles dans le domaine de la santé par exemple, issues d’une réflexion profonde. la zéro G, ,  un réseau mondial bas débit, qui ne consomme quasiment pas d’énergie … »

Faut il croire en la 0G? d’après wi6labs.com/

Regardez tout autour de vous. Je suis quasiment sûr que vous n’allez pas mettre beaucoup de temps à trouver une antenne dédiée à la téléphonie mobile. Cette technologie qui vous oblige à avoir un abonnement et une carte SIM  nécessite d’avoir un grand nombre d’antennes pour pouvoir couvrir le réseau. On peut donc douter que les infrastructures de téléphonie mobile puissent un jour équiper les réseaux de millions de capteurs.

Les alternatives:

Le réseau maillé consiste à avoir une série de capteurs qui, s’écoutant les uns les autres, peuvent faire passer les messages d’un voisin vers l’autre. Le but du jeu est de joindre un point A à un point B en passant par le chemin le plus court ou le plus rapide. Ces réseaux peuvent être performants mais sont énergivores car ils nécessitent une écoute quasi permanente du réseau par les capteurs. (Réseau mesh). Des travaux sont tout de même à l’étude pour améliorer les performances, notamment énergétiques (6Tisch et 802.15.5)

Le réseau en étoile via la 0G (versus 2G, 3G ou 4G) fait le pari que nous pouvons faire autrement pour gérer les réseaux de capteurs. La technologie Long Range offre de bonnes performances en terme de portée et permet donc de pouvoir utiliser des réseaux de type étoile.(Réseau Etoile). Seul un récepteur est à l’écoute de sa tribu de capteurs. De cette manière le capteur ne se réveille que lorsqu’il est nécessaire de le faire, simplement si une information est à transmettre.

.

Nouvelles technologies–L’avenir: la zéro G ?

Nouvelles technologies–L’avenir: la zéro G

Le patron de Sigfox, Ludovic Le Moan dans un entretien accordé à La Tribune dit tout le mal qu’il pense de la 5G et explique ce que serait la zéro G.

 

Pourquoi avoir publié votre livre intitulé « Zéro G » en ce début d’année, alors que l’actualité des télécommunications en 2020 est accaparée par l’émergence de la 5G ? Quel message avez-vous voulu faire passer à travers celui-ci ?

Ludovic Le Moan - J’ai voulu écrire ce livre et le nommer de cette façon non pas en prétendant que c’est l’opposé de la 5G. Pour moi, cette technologie consiste à permettre d’avoir plus de capacité haut débit dans des lieux où il y a beaucoup de monde, c’est cela ma définition de la 5G, le reste n’est que de la foutaise. Je ne dis pas qu’il ne faut pas de 5G, mais à l’opposé du spectre, il y a des besoins de frugalité et dans mon livre, je démontre que la zéro G c’est la frugalité. Le secteur des télécommunications pourrait être un domaine de réflexion pour continuer à progresser sans pour autant pousser les curseurs dans le rouge. Je ne suis pas dans la décroissance joyeuse, mais l’idée est d’instaurer une réflexion frugale dans le développement de l’économie.

La zéro G peut être un moyen d’apporter un progrès social, environnemental et dans la souveraineté. Ce dernier aspect est la plus grande menace que la France peut avoir. Si nous laissons quelques années, quand on observe la puissance des GAFA et des Chinois, nous ne sommes pas très loin de devenir demain dépendants de ces deux forces-là. Plus que gagner de l’argent, je démontre comment on peut faire pour avoir une alternative.

Vous venez de l’aborder : ce terme de  »frugalité » revient des dizaines de fois au cours des 170 pages de votre ouvrage. Est-ce un choix volontaire et assumé ? Pourquoi cette insistance ?

La frugalité et la zéro G, pour moi, c’est ni plus ni moins qu’adapter les moyens aux besoins. Ma priorité est celle-ci : répondre à un besoin par le bon moyen. Quand on dit qu’il faut la 5G pour tout le monde, honnêtement je ne suis pas d’accord. Alors que la Terre brûle, je ne me casse pas la tête, après la 4, je fais la 5 en mettant plus de débit parce que cela se vend bien. Les consommateurs mangent cela en achetant les derniers smartphones et écrans. Cela fonctionne depuis la nuit des temps, avec un marketing de plus en plus puissant. Est-ce que c’est que nous voulons ? Pour moi, la réponse est non.

Nous pouvons créer des choses utiles dans le domaine de la santé par exemple, issues d’une réflexion profonde. la zéro G, ,  un réseau mondial bas débit, qui ne consomme quasiment pas d’énergie … »

Faut il croire en la 0G? d’après wi6labs.com/

Regardez tout autour de vous. Je suis quasiment sûr que vous n’allez pas mettre beaucoup de temps à trouver une antenne dédiée à la téléphonie mobile. Cette technologie qui vous oblige à avoir un abonnement et une carte SIM  nécessite d’avoir un grand nombre d’antennes pour pouvoir couvrir le réseau. On peut donc douter que les infrastructures de téléphonie mobile puissent un jour équiper les réseaux de millions de capteurs.

Les alternatives:

Le réseau maillé consiste à avoir une série de capteurs qui, s’écoutant les uns les autres, peuvent faire passer les messages d’un voisin vers l’autre. Le but du jeu est de joindre un point A à un point B en passant par le chemin le plus court ou le plus rapide. Ces réseaux peuvent être performants mais sont énergivores car ils nécessitent une écoute quasi permanente du réseau par les capteurs. (Réseau mesh). Des travaux sont tout de même à l’étude pour améliorer les performances, notamment énergétiques (6Tisch et 802.15.5)

Le réseau en étoile via la 0G (versus 2G, 3G ou 4G) fait le pari que nous pouvons faire autrement pour gérer les réseaux de capteurs. La technologie Long Range offre de bonnes performances en terme de portée et permet donc de pouvoir utiliser des réseaux de type étoile.(Réseau Etoile). Seul un récepteur est à l’écoute de sa tribu de capteurs. De cette manière le capteur ne se réveille que lorsqu’il est nécessaire de le faire, simplement si une information est à transmettre.

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

Nouvelles Technologies: : lancement de plus de 3 000 satellites par Amazon

Nouvelles Technologies: : lancement de plus de 3 000 satellites par Amazon

 

Un projet pharaonique d’Amazon qui pourrait accélérer la domination américaine dans le numérique et rendre caduques des projets comme le câble ou la 5G dans le mobile.  Avec le lancement de 3000 satellites, le projet d’Amazon visera les  Etats-Unis, puis dans le monde entier, et pourrait alimenter des réseaux sans-fils et 5G. Le projet ciblera en priorité les foyers, ainsi que les écoles, hôpitaux, entreprises et d’autres organisations, et pourra rétablir les télécommunications en cas de catastrophe naturelle. Plusieurs entreprises se sont déjà positionnés sur le créneau de l’internet depuis l’espace.

Une constellation. Amazon a obtenu l’approbation des autorités américaines pour déployer une constellation de 3 236 satellites en orbite basse, afin de fournir de l’internet à haut débit partout dans le monde. Le géant du commerce en ligne va investir 10 milliards de dollars dans ce projet baptisé Project Kuiper, a-t-il annoncé.

 

« Nous avons entendu tellement d’histoires récemment sur les personnes qui ne peuvent pas travailler ou étudier parce qu’ils n’ont pas d’internet fiable à la maison », a déclaré Dave Limp, vice-président d’Amazon.  »Kuiper va changer cette situation. Nos 10 milliards d’investissements vont créer des emplois et les infrastructures américaines vont nous aider à combler le fossé », a-t-il estimé.

Ces annonces interviennent alors que le mastodonte SpaceX du milliardaire américain Elon Musk a déjà déployé la constellation Starlink, qui compte quelque 300 satellites en orbite et ambitionne d’en lancer jusqu’à 42 000. En Europe, le gouvernement britannique, associé au conglomérat indien Bharti, a été choisi comme repreneur de l’opérateur de satellites en faillite Oneweb, qui porte un projet similaire.

 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol