Archive pour la Catégorie 'nouvelles technologies'

Page 53 sur 65

Google : la «suprématie quantique» ?

Google prétend détenir  la «suprématie quantique»

 

Google  prétend détenir la suprématie quantique d’après une information Financial Times de vendredi. En fait il s’agit sans doute du projet  réalisé en commun avec la NASA qui permet une accélération considérable du traitement des données. Pour l’instant l’ordinateur ne peut effectuer qu’un seul calcul à la fois et non plusieurs calculs en même temps dans le projet définitif de la nouvelle machine. L’accélération du traitement d’un seul calcul serait toutefois considérable, 100 millions de fois plus vite.

Un ordinateur quantique pourrait  résoudre bien plus vite tous les problèmes d’optimisation, ceux où il faut rechercher une solution parmi un très grand nombre de possibilités. Par exemple, cette capacité pourrait aider à développer bien plus vite des molécules thérapeutiques, à réaliser des simulations pour trouver enfin la formule d’un supraconducteur à vraiment haute température, à faire de meilleures prévisions météorologiques, à optimiser les investissements financiers, etc. Comme la question est stratégique, il faut considérer les annonces avec une certaine prudence. Certes la recherche avance, mais les applications ont encore loin d’être opérationnelles et le projet d’ordinateur totalement quantique n’a pas encore abouti.

Selon les chercheurs de l’entreprise californienne, la machine ne peut résoudre qu’un seul calcul à la fois et l’utilisation des machines quantiques pour de réelles applications industrielles ne se fera pas avant plusieurs années. Mais c’est «une étape essentielle vers l’informatique quantique à grande échelle», écrivent-t-ils dans l’étude selon le Financial Times.

 

S’il existe déjà des prototypes d’ordinateurs quantiques, ces derniers ne peuvent actuellement que réaliser des tâches similaires à celles effectuées par un ordinateur normal, mais plus rapidement. Des ordinateurs quantiques aboutis pourraient changer la donne dans des domaines tels que la cryptographie, la chimie ou l’intelligence artificielle.

 

Algorithmes : une obligation de transparence ?

Algorithmes : une obligation de transparence ?

Winston Maxwell enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

A quand le smartphone jetable ?

A quand le  smartphone jetable ?

La vitesse de renouvellement des Smartphones (et autres équipements informatiques) ne cesse de s’accélérer. Une accélération du progrès technologique mais qui résulte aussi de considérations commerciales qui n’ont rien à voir avec la technologie. Ainsi faut-il remplacer de plus en plus souvent des Smartphones dont le prix peut atteindre 2000 $.  Du coup comme il faut être à la mode,  beaucoup se plient aux exigences des constructeurs. En vérité beaucoup de nouveaux appareils n’ont  pour modification que l’ajout de quelques gadgets et un emballage nouveau. Des gadgets qui justifient une puissance supplémentaire donc un nouvel appareil. Certes, eu égard aux évolutions, les changements sont indispensables au bout d’un certain temps mais sans doute pas à ce rythme. Un rythme savamment entretenu pour accélérer l’obsolescence des équipements. À ce rythme, on peut se demander si un jour on ne va pas s’orienter vers des Smartphones jetables dont on pourrait se débarrasser au bout d’un mois, une semaine voire même après une seule utilisation ! Une bonne manière de soutenir la croissance aussi de s’asseoir sur les préoccupations environnementales et les gaspillages.

 

Algorithmes : un droit à la transparence ?

Algorithmes : un droit à la transparence ?

Winston Maxwell,  enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

INTELLIGENCE ARTIFICIELLE : PARIS ET BERLIN POUR UN FONDS COMMUN .

Intelligence artificielle : Paris et Berlin pour  un fonds commun

La France et l’Allemagne viennent  d’annoncer la mise en place d’un fonds commun pour développer  la filière de l’intelligence artificielle. Il était temps car ni en Allemagne, ni en France il n’existe de stratégies à la hauteur des enjeux dans ce domaine. Pour tout dire,  on a nettement sous-estimé le développement exponentiel des  algorithmes qui vont nourrir les transformations du mode de production mais aussi du mode de consommation voir même influencer le domaine naturel. Certes la France ne manque pas de bidouilleurs de génie capable de développer une start-up dans un domaine particulier mais souvent revendues en quelques années  à des firmes américaines voire chinoises. Cette émergence un peu spontané de ne saurait constituer une stratégie. Les insuffisances françaises et allemandes dans ce domaine du numérique sont à l’image des mêmes carences qui concernent cette autre filière que sont les batteries électriques.

Notons que le projet sur l’intelligence artificielle s’inspirera du modèle retenu pour financer le développement d’une filière européenne de batteries de quatrième génération pour les véhicules électriques, déjà fruit d’une initiative franco-allemande, qui vise à contrer le quasi-monopole actuel de la Chine dans ce domaine.

Bruno Le Maire plaide régulièrement pour une plus grande coordination européenne sur les questions industrielles et technologiques, indispensable à ses yeux pour favoriser l’émergence de “géants européens” à même de garantir la “souveraineté technologique” de l’Europe face aux Etats-Unis et à la Chine.

Il est soutenu dans ce projet par le ministre allemand de l’Economie et de l’Energie, Peter Altmaier, qui a jugé dans son discours devant les patrons français que l’intérêt de l’Europe était de se donner les moyens de conserver les données de ses citoyens et de “créer une infrastructure souveraine de données”.

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La 4G en retard chez les ploucs et la 5 G pour dans 30 ans

La 4G en retard chez les ploucs et la 5 G pour dans 30 ans

 

Au moment où on annonce à grand renfort de com.  Le développement généralisé de la 5g  -et par ailleurs du câble-, on s’aperçoit en fait que certaines zones ne sont pas couvertes par la 4G (certains ne reçoivent même pas la 3G dans des conditions satisfaisantes). Exemple quand on revoit un SMS le lendemenain de son émission ! Les opérateurs ne respectent pas leurs engagements . La couverture des zones blanches et des axes de transports, prévue dans le cadre de l’accord passé entre l’État et les opérateurs début 2018, ne va pas suffisamment vite et risque de ne pas être à la hauteur des engagements pris par les opérateurs en échange du renouvellement à titre gracieux de plusieurs fréquences accordées il y a 20 ans, selon l’ARCEP. Les mêmes retards seront constatés pour la 5G. Une 5G qui pourraiat même ne jamais atteindre les zones peu denses au profit dune technologie moins puissante ou d’une 4G améliorée ;

En effet y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  haut débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

Le « numérique », quelles définitions et quelles conséquences ?

Le « numérique », quelles définitions et quelles conséquences ?

 

Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal  s’interroge dans la tribune sur la définition générale du numérique et surtout sur ses usages. Une analyse intéressante mais qui est loin d’être exhaustive. «

 

« Nous  parlons de plus en plus de « numérique » en substantivant un adjectif qui – initialement – comporte une signification technique précise et qui devient désormais davantage un phénomène culturel qu’une notion liée à des outils technologiques particuliers. Cette universalisation du numérique nous permet de comprendre des changements qui affectent l’ensemble de notre société et notre façon de penser, comme l’a bien expliqué notamment Milad Doueihi par son concept de « culture numérique ».

Cet usage pose pourtant un problème majeur : nous avons de plus en plus tendance à penser « le numérique » comme un phénomène uniforme et homogène (sur ce sujet, il est intéressant de lire le débat entre Morozov et Johnson) alors que, de toute évidence, il ne l’est pas. « Le » numérique n’existe pas en tant que tel. Il existe de nombreuses pratiques, usages, outils et environnements différents, chacun fondé sur des principes particuliers, chacun promouvant des valeurs spécifiques et entraînant des conséquences caractéristiques.

Le fait de penser « le numérique » comme un tout nous amène souvent à exprimer des jugements de valeur qui font abstraction des caractéristiques propres à des outils ou pratiques distincts : inévitablement donc, le jugement se radicalise, s’uniformise, se généralise en perdant tout son sens et sa cohérence vis-à-vis du particulier. « Le numérique » devient ainsi tantôt synonyme d’émancipation et de liberté, tantôt synonyme de contrôle et d’assujettissement : en somme, le numérique est bien ou le numérique est mal. D’un côté les technoptimistes, de l’autre les technophobes.

Les modes changent : nous sommes passés d’un technoptimisme généralisé à une technophobie universelle. Dans les années 1990, le discours des optimistes semblait prévaloir : de la déclaration de l’indépendance du cyberespace de John Perry Barlow aux discours d’émancipation transhumanistes, en passant pas les merveilles de la virtualisation.

Depuis quelques années, il semblerait que la mode ait changé : il faut être critique vis-à-vis du numérique. Les grands gourous du numérique sont les premiers à le blâmer : de Bill Gates à Tim Berners-Lee, en passant par Jimmy Wales… Le discours critique est aussi porté par les intellectuels - Morozov est devenu le porte-drapeau de ce mouvement, avec des arguments que je partage dans l’ensemble – ou des universitaires. Des critiques philosophiques approfondies ont été développées, consacrées à des phénomènes particuliers – je pense en premier lieu à la fine analyse que Gérard Wormser propose de Facebook.

Il me semble cependant nécessaire de différencier – et ainsi d’identifier – les aspects du « fait numérique » qui peuvent et doivent nous faire peur. Bien que j’ai toujours rejeté cette opposition entre optimistes et technophobes, je conserve néanmoins une préférence pour les optimistes – encore aujourd’hui alors que cette posture est passée de mode. J’ai tendance à être en accord avec les analyses de Pierre Lévy qui soulignent le fait toujours d’actualité que plusieurs idéaux utopistes, qui portaient le développement informatique dans les années 1990, sont encore présents et en vigueur. Cependant, dans les dernières années – probablement aussi du fait que je suis devenu le père de deux enfants -, je suis de plus en plus angoissé, non pas par « le numérique » en général, mais par la place dans nos vies à laquelle accède – notamment via certaines technologies numériques – un nombre très restreint de sociétés privées : celles qu’on a commencé à appeler les GAFAM pour se référer à Google, Apple, Facebook, Amazon et Microsoft, sachant que cet acronyme est devenu une métonymie pour inclure également les nouveaux acteurs comme Netflix, Airbnb, Uber, etc.

Cette influence ne dépend pas « du numérique », mais de certains usages spécifiques : plus précisément des usages de logiciels et de matériels propriétaires. Et, plus important, ces usages ne sont pas inévitables, mais on fait, hélas, trop peu – ou presque rien – pour les contrer, alors qu’il serait facile de mettre en place des mécanismes et dispositifs de protection de l’espace public.

Concrètement, le fléau dont nous sommes victimes est représenté par le fait que dans tous les domaines, de la vie privée à la vie publique en passant par l’activité professionnelle, nous sommes encouragés à utiliser des solutions propriétaires : MacOs, iOS, Windows, Word, Adobe, Facebook, WhatsApp, Skype, Gmail, Outlook… Ce problème n’émane pas, à mon sens, des entreprises – dont l’objectif principal est, évidemment, de vendre leurs produits -, mais du manque quasi total de sensibilité des institutions publiques et privées et de l’absence de littéracie numérique pour les usagers.

Quelques exemples :

  • nous utilisons des systèmes d’exploitation propriétaires – MacOS et Windows – alors que nous pourrions utiliser des systèmes d’exploitation libres ;
  • nous utilisons des dispositifs portables propriétaires sans nous soucier des conséquences ;
  • nous utilisons des applications mobiles alors que nous pourrions utiliser des services web ;
  • nous utilisons des logiciels propriétaires alors que nous pourrions utiliser des solutions libres ;
  • nous ne nous posons pas de questions sur les pilotes qui font fonctionner les dispositifs de nos ordinateurs alors que nous pourrions choisir les dispositifs en fonction de la transparence de leur conception.

Ce sont fondamentalement les revendications de la Free Software Foundation qui n’ont malheureusement que trop peu d’impact sur les pratiques.

Or deux considérations :

  • ces pratiques sont très dangereuses ;
  • il serait très facile de les changer.

Il me semble, en d’autres termes, que, le fait de penser « le numérique » comme quelque chose d’uniforme nous empêche de cerner le véritable problème et de chercher des solutions. Être génériquement technophobes est une posture qui n’amène à rien : cela revient à un nostalgique « o tempora o mores » qui plonge dans une inactivité abrupte. Des positions du type : « le numérique doit/ne doit pas être utilisé par les enfants » me semblent juste stupides. Elles réunissent des réalités hétérogènes qui n’ont aucun rapport entre elles : « le numérique » ? Quels outils ? Quelles plates-formes ? Quels environnements ? Quels dispositifs ? Identifier des problèmes spécifiques est sans doute plus complexes : cela demande une étude et une compréhension du fait numérique dans sa diversité, une analyse des enjeux liés à un logiciel, à un format, à un protocole qui demandent du temps et de l’expertise. Mais cela permet de trouver des alternatives et des solutions concrètes.

_________

Par Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal

La version originale de cet article a été publiée sur The Conversation

Développement Technologie 5G : une norme pour la ville, une autre pour les ploucs

Développement  Technologie 5G : une norme pour la ville, une autre pour les ploucs  

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  haut débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

Technologie 5G : une norme pour la ville, une autre pour les ploucs

Technologie 5G : une norme pour la ville, une autre pour les ploucs  

 

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

 

5G : une technologie pour la ville, une autre pour les ploucs

5G : une technologie pour la ville, une autre pour les ploucs  

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

La 5G : pour tout le territoire ?

La 5G : pour tout le territoire

 

 

Évidemment on peut douter de l’objectif de couvrir l’ensemble du pays par la 5G. En effet, de  nombreues zones peu denses n’ont même pas accès à la 3G ou à la G. Et certains n’ont accès à rien du tout. Les  d’enchères pour l’attribution pour les  fréquences 5G. vont cepedant bientôt être attribuées par l’ARCEP. Le lancement commercial est attendu pour 2020. Le gouvernement exige qu’aucune zone, y compris rurale, ne soit délaissée. Un vœu pieux car  l’autorisation d’exploiter la 5G n’aura pas pour objectif  premier d’aménager le territoire, ce sera surtout l’occasion pour le gouvernement de contribuer à désendetter le pays via des enchères financières. C’est un peu le paradoxe puisque cette technologie était promise à tous précisément pour lutter contre la désertification du territoire et procéder à l’aménagement plus harmonieux. Récemment, le premier ministre a d’ailleurs été clair, ce sera la même philosophie pour le câble. Plus question de permettre l’accès au câble pour tous les Français, seules les zones densifiées pourront être câblées. Concernant la nouvelle technologie de téléphonie 5G, la priorité sera aussi aux zones très denses. En effet les enchères financières vont contraindre les opérateurs à prioriser les territoires les plus rentables pour amortir leurs droits d’acquisition. Il y a « un objectif d’équilibre des recettes pour l’Etat », a affirmé la ministre. « Sur ce point, l’enjeu est de trouver le juste milieu avec l’ampleur des investissements à réaliser par les opérateurs », a-t-elle ajouté. L’équation est simple sur le papier, mais ô combien délicate à définir : si le gouvernement ponctionne trop d’argent aux opérateurs, ceux-ci investiront moins dans les réseaux. Autrement dit, dans ce cas, les Orange, SFR, Bouygues Telecom et Free déploieront leurs antennes et infrastructures de manière prioritaire dans les territoires les plus denses (car les plus rentables), au risque de trop délaisser les zones rurales et les territoires les moins peuplés.

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

5G la loi « anti-Huawei » votée

5G la loi « anti-Huawei » votée

La loi « anti-Huawei  votée par le sénat l’Assemblée nationale le 10 avril, la proposition de loi visant à sécuriser les réseaux mobiles en vue de la 5G a été votée mercredi par le Sénat. Plusieurs aspects devront être précisés. Cela dit on semble s’orienter dans le monde vers uen double référence, celle de -Huawei et celle des américains. Ce qui ne va pas faciliter la vie des opérateurs voire celle des consommateurs. Comme pour presque toutes les technologies, les normes seront harmonisées un jour ou l’autre. Il ne s’agit pas cette fois uniquement de convergences techniques mais aussi d’enjeux économiques, sociétaux voire militaires. Le problème est que la Chine vit en cercle complètement fermé sur le plan sociétal, culturel, social et démocratique et veut imposer ses concepts (surveillance permanente de la population) aux pays occidentaux. Certes on objectera que les grands du numérique américain ont aussi pour objectif d’influencer les manières de penser, de vivre et d’acheter à la différence près que l’existence de la démocratie n’est pas en jeu. Quand on observe ce qui se passe à Hong Kong, on peut être inquiet. La Chine ne respecte rien m^me les accords ou principes signés ou théoriquement adoptés.

1...5152535455...65



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol