Archive pour la Catégorie 'nouvelles technologies'

Page 52 sur 65

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Nouvelles technologies (5G, intrenet, console etc.): le risque d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense.  Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très confiants. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Google refuse de payer les éditeurs d’information

Google refuse de payer les éditeurs d’information  

Google refuse tout simplement qui déjà ne paye pas d’impôts à la hauteur de ses activités en Europe, refuse aussi de payer des droits aux producteurs d’information. Pour cela Google a trouvé la combine : le moteur de recherche ne diffusera plus les textes mais uniquement le titre avec le lien URL. Publiée fin juillet et transposant une directive européenne, la loi française créant “un droit voisin au profit des agences de presse et des éditeurs de presse” impose à l’ensemble des plates-formes, réseaux sociaux et autres sites internet de verser une rémunération juste aux médias dont ils utilisent les articles et dont ils tirent d’importants revenus.

 

Pour les recherches liées à l’actualité, qu’elles soient effectuées via le moteur de recherche ou via Google Actualités, par exemple, Google France, filiale d’Alphabet n’affichera plus désormais des extraits de texte ou une vignette photo, mais uniquement par défaut un titre et un lien URL.

“Lorsque la loi française entrera en vigueur, nous n’afficherons plus d’aperçu du contenu en France pour les éditeurs de presse européens, sauf si l’éditeur a fait les démarches pour nous indiquer que c’est son souhait”, peut-on lire dans un billet publié sur le blog de Google France.

“Ce sera le cas pour les résultats des recherches effectuées à partir de tous les services de Google”, est-il précisé.

Les médias pourront cependant choisir s’ils souhaitent ou non que leurs contenus soient accessibles via les services de Google, définir la taille maximale des images miniatures ou encore le nombre maximal de caractères des aperçus des textes.

Le ministre de la Culture Franck Riester, qui a reçu dans la matinée le vice-président de Google en charge de Google Actualités, Richard Gingras, a jugé que la position de Google sur la rémunération n’était “évidemment pas acceptable”, puisque l’objectif politique des textes français et européen est de “permettre un juste partage de la valeur produite, au bénéfice des plates-formes, par les contenus de presse.”

“La définition unilatérale des règles du jeu est contraire à la fois à l’esprit de la directive et à son texte”, déclare le ministre dans son communiqué, en précisant qu’il compte aborder “très prochainement” le sujet avec ses homologues européens afin de “remédier à cette situation”.

La France est le premier pays de l’Union européenne à mettre en place un tel dispositif, alors qu’une directive européenne en ce sens a été adoptée au printemps dernier.

Les géants du net comme Google et Facebook sont régulièrement accusés de capter l’essentiel de la valeur des contenus hébergés ou mis en ligne sur leurs sites, grâce à la publicité et à la monétisation des données personnelles des utilisateurs.

Dans son billet de blog, Google estime au contraire contribuer à soutenir la presse, en contribuant à élargir la visibilité de certains médias et en “orient(ant) les internautes vers les sites d’information, qui en tirent un revenu supplémentaire”.

Fibre dans les campagnes : c’est pas pour demain

Fibre dans les campagnes : c’est pas pour demain

En dépit des déclarations des lobbys et du gouvernement, la fibre optique, ce n’est pas pour demain dans les campagnes. Certes on affirme que l’ensemble du territoire sera couvert pour donner une image d’aménagement équilibré du territoire mais dans les faits il en va autrement.

Pour l’instant le taux de pénétration de la fibre dans les campagnes n’est « que » de 16%, contre 39% dans les grandes villes, et 42% dans les villes moyennes et les périphéries des grandes agglomérations. De toute manière le Premier ministre lui-même avait pris des précautions d’usage en signalant que la volonté était bien d’équiper la plus grande partie de la France avec la fibre mais que d’autres moyens pourraient être utilisés comme le satellite ou encore la 5G pour suppléer à l’absence de câbles dans les zones peu denses. Notons que ces zones peu denses sont parfois dépourvues de couverture 4G  ou de couverture tout court à certains moments.

Les grands opérateurs nationaux, c’est-à-dire Orange, SFR, Bouygues Telecom et Free se livrent à une concurrence féroce pour équiper les infrastructures dans les grandes villes. Mais dans les campagnes, moins peuplées et bien moins rentables, la donne est différente. Comme les grands opérateurs n’ont pas souhaité y aller spontanément, des réseaux dits d’initiative publique (appelés RIP) ont vu le jour. Ici, ce sont les collectivités qui déploient leurs propres réseaux de fibre, en bénéficiant d’aides financières de l’Etat.

Elles font appel à des opérateurs d’infrastructures, qui sont soit des filiales des grands opérateurs (Orange Collectivité ou SFR Collectivité). Soit d’autres acteurs peu connus du grand public, à l’instar de Covage, Axione (qui appartient au groupe Bouygues), Altitude ou TDF. Ces derniers signent ensuite des accords avec les opérateurs de détail, lesquels commercialisent les abonnements. Les campagnes et zones peu peuplées sont un des grands enjeux du déploiement de la fibre et de l’accès à Internet à très haut débit. Ces territoires regroupent 40% de la population. Ils représentent 17 millions de locaux et habitations à raccorder.  Le problème pour nombre de collectivités locales c’est que souvent la facture a pratiquement doublé par rapport aux devis initiaux et que vraisemblablement certaines zones peu denses seront encore abandonnées et où devront se satisfaire de la liaison via le cuivre (par parenthèse dans un état lamentable) et où de la 4G améliorée.

 

 

 

Droit à l’oubli : l’Europe donne raison à Google

Droit à l’oubli : l’Europe donne raison à Google

 

 

La  Cour de justice de l’Union européenne donne raion à Google et considère que le règlement de protections des données (RGPD) ne s’applique pas hors de l’Europe. En clair, Google et les autres Gafa pourront continuer de diffuser hors de l’Europe  des données sensibles. Le  RGPD permet pourtant à tout citoyen de l’UE de faire retirer d’un moteur de recherche un lien contenant des données sensibles. La Cnil estime que pour être efficace, le droit à l’oubli doit s’appliquer partout dans le monde, et avait même sanctionné Google de 100.000 euros d’amende, en 2016, pour refus d’appliquer le droit au déréférencement dans l’intégralité de ses résultats de recherche, même en dehors du territoire de l’Union européenne. Au contraire, Google affirme qu’un droit à l’oubli mondial est la porte ouverte à tous les abus. Son argument principal est qu’il est important de limiter sa portée au cas où un pays non-démocratique l’utiliserait pour sa propagande.

Du coup, lorsque Google reçoit une demande de déréférencement en Europe, il supprime les résultats concernés uniquement de ses noms de domaines européens (google.fr, google.be, google.de…). Cela signifie qu’on peut retrouver le contenu sur la version américaine ou brésilienne du site, par exemple. L’entreprise restreint bien l’accès à ces liens en fonction de l’adresse IP de l’appareil qui effectue la recherche, mais cette petite protection reste facilement contournable, par exemple avec un VPN (logiciel qui masque ou change la localisation). La Cnil espérait donc étendre le droit à toutes les versions du moteur de recherche.

Sabine Marcellin, avocate spécialisée en droit du numérique et fondatrice du cabinet Aurore Légal, explique à La Tribune les enjeux de ce jugement. Entretien.

-Pour quels types d’informations peut-on demander un déréférencement ?

SABINE MARCELLIN - Cela ne concerne pas toutes les informations personnelles, mais seulement ce que les textes appellent les « données particulières », qu’on qualifie dans le langage courant de  »données sensibles ». Elles sont listées à l’article 9 du RGPD et regroupent tout ce qui a un lien avec les opinions politiques et philosophiques, l’origine, les données génétiques, les données biométriques, l’orientation sexuelle… Ce sont les données les plus intimes, dont la divulgation peut vraiment porter atteinte à la vie privée des personnes. Elles requièrent donc une protection plus importante.

Pourquoi la CJUE a-t-elle donné raison à Google ?

Le droit à l’oubli dans les recherches Google limité à l’UE

v:shapes= »vi-stories-sponsor-logo »>

Les magistrats ont simplement rappelé que le texte s’appliquait dans toute l’Union européenne, même s’ils ont tout de même indiqué qu’il serait souhaitable de « rendre plus difficile les recherches sur les autres extensions. » Mais pour Google, les contraintes ne s’appliquent qu’au sein de l’UE, c’est donc une victoire. Si demain l’autorité allemande se pose une question similaire, elle devra prendre en compte cette interprétation de la CJUE qui s’applique à tous les états membres, dans toutes les commissions nationales. Pour justifier cette interprétation, les magistrats ont développé que tous les pays n’ont pas la même analyse de l’équilibre entre respect de la vie privée et droit à l’information. En revanche, si Google ne respecte pas le droit dans l’UE, il s’expose à des sanctions importantes dans le cadre du RGPD.

Cette décision souligne-t-elle les limites de la conception européenne de la protection des données ?

La Cnil avait l’ambition de faire appliquer l’idée qu’une demande de déréférencement doit s’appliquer partout. Elle argumentait que la protection des données personnelles est un principe absolu, quelle que soit la localisation de l’internaute. Elle s’appuyait sur l’article 3 du RGPD, qui indique que le texte s’applique dans le cadre des activités d’un établissement sur le territoire de l’union, que le traitement de données ait lieu dans le territoire de l’Union ou pas.

Mais la CJUE a dû prendre en compte la question complexe de l’extra-territorialité, dans tous les cas difficiles à mettre en place, car il faut avoir les moyens d’appliquer des règles européennes dans le reste du monde. Or, on touche là à une limite du droit européen : dans d’autres pays, dans ce cas les États-Unis, le droit à l’information est constitutionnel donc très puissant. On peut difficilement lui opposer le RGPD.

Avec ce jugement, la notion d’un droit à l’oubli mondial est-elle définitivement enterrée ?

C’est toujours difficile de se projeter. Mais le monde est découpé en zones, et chacune affirme sa propre conception du droit. La zone européenne a une vision très humaniste du droit : elle privilégie la défense de tous les droits humains, dont le respect de la vie privée, mais également la liberté d’expression. Des pays comme le Canada ou le Japon prennent une voie similaire. En revanche, les États-Unis ont une vision plus économiste qui privilégie la liberté d’entreprendre et la liberté d’entreprise. Certes, ils ont des textes pour encadrer le droit de la vie privée, mais ils sont moins puissants qu’en Europe. Et puis enfin, il y a des zones où le droit est plus utilitariste, comme en Chine. Ces différentes régions vont avec différents équilibres dans la défense des intérêts entre la personne, les entreprises et l’État.

Limites de la tech vis-à-vis de l’environnement (Nicolas Hasard)

Limites de la tech vis-à-vis de l’environnement  (Nicolas Hasard)

 

Dans une interview de la Tribune, Nicolas Hazard, Fondateur du fonds INCO qui accompagne les projets green innovants souligne le rôle de la tech pour l’environnement mais aussi ses limites.

 

 

Le prochain Marseille City Life a pour thème général « Tech et zéro carbone ». Doit-on considérer que l’équation est utopique ou au contraire, tout à fait compatible ?

Nicolas Hasard – Je la pense compatible, mais je pense aussi que la notion du sauveur providentiel est celle qui aujourd’hui fait le plus de mal à l’humanité. Il flagrant de constater par exemple, particulièrement outre-Atlantique, à quel point sont nombreux ceux qui croient en un Christ Sauveur, qui viendra nous secourir de l’apocalypse annoncée. À notre époque, ce Christ, cette croyance, s’appelle la technologie. On se raccroche aujourd’hui à elle, à sa puissance créatrice, elle qui nous accompagne tous les jours et qui a profondément transformé nos vies. C’est objectivement un levier exceptionnel. Pourtant, il n’y a aucune certitude qu’il réussisse à nous sauver, mais l’on s’y complaît, en pensant que de toute façon le progrès technologique nous sauvera in fine de toutes nos turpitudes.

Les solutions innovantes – notamment celles qui utilisent l’hydrogène par exemple – sont mises au point par des startups, c’est-à-dire par de petites structures, certes agiles mais qui n’ont pas autant les moyens de diffusion que les grands groupes. Comment faire pour que les initiatives isolées mais vertueuses soient reprises à grande échelle ?

Dans notre incubateur INCOPLEX Green Sud à Marseille, nous accompagnons une start-up bien connue ici, Hysilabs, qui a le potentiel pour révolutionner cette source d’énergie exceptionnelle qu’est l’hydrogène, notamment en facilitant son transport. Pour que ce type d’initiative change d’échelle, il faut la connecter à un écosystème d’investisseurs et surtout de grands groupes industriels qui seront en mesure de lui permettre d’expérimenter ses solutions et de les mettre sur le marché. L’open innovation, c’est-à-dire l’innovation ouverte qui mets en relation start-ups et grandes entreprises, c’est le modèle que nous prônons au sein nos incubateurs, car il permet aux start-up de frotter leurs innovations aux réalités des attentes des grands acteurs économiques. Nous appliquons les mêmes principes dans notre incubateur dédié à la prévention santé, le Prevent2Care Lab, basé ici à Marseille chez Kedge BS.

Dans votre dernier ouvrage « Appel à la guerilla mondiale » vous incitez chaque citoyen à devenir un guerillero et à « hacker » le système. Pourquoi si le zéro carbone semble être la préoccupation de tous, n’arrive-t-on pas à véritablement modifier les habitudes ?

Il existe sans doute mille raisons qui peuvent expliquer pourquoi nous sommes si inconscients et inconsistants face à l’énorme défi environnemental et à quel point nous avons la capacité à répéter les mêmes erreurs que les civilisations qui nous ont précédées, dont certaines ont dilapidé leur capital naturel, et ont été balayées. Il faut changer de modèle de façon radicale et l’une des solutions c’est aller vers la smart city, certes, mais plus encore, vers le « smart country ». C’est-à-dire vers une déconcentration, une relocalisation, une restitution du « pouvoir vivre » à tous les territoires urbain et ruraux. Il faudrait à nouveau que chaque territoire se considère davantage comme un archipel indépendant. En matière d’énergie, de mobilité, d’urbanisme, d’agriculture : c’est à l’échelle locale que les alternatives s’élaborent, que les acteurs publics et privés transforment en profondeur le développement économique et la façon dont nous consommons.

 

TripAdvisor : un exemple d’avis bidon d’internautes

TripAdvisor : un exemple d’avis bidon d’internautes

 

La plate-forme américaine sur le tourisme offre un exemple des avis bidon d’internautes. Certains sont frauduleux mais d’autres caricaturaux en tout cas excessifs dans un sens dans un autre. Cela vaut la plate-forme américaine sur le tourisme qui a décidé de revoir le système de modération. D’une façon générale, les vis-à-vis d’internautes sur des produits ou des publications présentent assez peu d’intérêt quand ils ne sont pas d’une nullité désarmante.  Le principal reproche qu’on peut leur faire est d’être assez caricatural soit pour, soit contre et souvent sans beaucoup de justifications. Les sites ont évidemment tendance à publier surtout les avis adorables qui servent leur image de marque ; ce qui enlève toute crédibilité à ce type d’appréciation. Pour donner un peu de crédit aux louanges excessives, on laisse passer un ou deux avis négatifs. Bref, c’est de la grosse ficelle de nature commerciale. Certains sites un peu sérieux et moins commerciaux livrent toutefois des avis positifs ou négatifs mais très argumentés. Mais c’est  plutôt une exception. D’une manière générale mieux vaut se fier aux sites qui ne publient pas d’avis bidon et ni d’avis excessifs d’internautes. La plate-forme américaine TripAdvisor   indique que 4,7 % des avis envoyés en 2018 ont été rejetés ou supprimés, 2,1 % étant réellement frauduleux. Les établissements identifiés comme fraudeurs font l’objet de sanctions graduées, affirme-t-elle. Cependant ces chiffres sont sans doute nettement sous-évalués. Il ne serait pas inintéressant de connaître l’avis d’internautes mais encore faudrait-il que les modérateurs soient complètement indépendants alors que pour la plupart ils dépendent directement du site en question.

Manif en Suisse contre la 5G à Berne

Manif  en Suisse contre la 5G à Berne

 

 

Une manif en Suisse contre le déploiement de la 5G. Plus de 200 scientifiques et médecins ont d’ailleurs demandé un moratoire sur la 5G. Risques élevés de cancers, dommages génétiques et désordres neurologiques sont notamment mis en avant par ces savants. Les opposants à la 5G en Suisse craignent les effets des rayonnements électromagnétiques de cette technologie et plusieurs cantons, mis sous pression par des pétitions en ligne, ont gelé les procédures pour la construction d’antennes, au nom du principe de précaution, comme à Genève, Vaud, Fribourg et Neuchâtel.

La très puissante Fédération suisse des médecins (FMH) plaide aussi pour la prudence, expliquant que «tant qu’il ne sera pas prouvé scientifiquement qu’une augmentation des valeurs limites de rayonnement actuelles n’a aucun impact sur la santé, il faudrait renoncer à les augmenter».

 

Plusieurs milliers de personnes ont manifesté samedi dans la capitale suisse, Berne, pour s’opposer à la 5G déploiement. «Boycott 5G» ou «Toujours plus vite, plus haut, plus loin, au détriment de l’homme et de l’Environnement, Stop 5G», pouvait-on lire sur les pancartes déployées par les manifestants, face au siège du Parlement suisse, pour dénoncer une technologie jugée nocive pour la santé.

«Qu’aujourd’hui, autant de personnes se soient rassemblées, c’est un signe fort contre l’introduction incontrôlée de la 5G», s’est félicitée Tamlin Schibler Ulmann, la co-présidente de Frenquencia, l’association à l’origine du rassemblement, dans un communiqué. Après la Corée du Sud, la Suisse est l’un des premiers pays au monde à s’être lancé dans la 5G, cette infrastructure mobile au cœur d’un affrontement technologique entre les États-Unis et la Chine.

 

 

Google : la «suprématie quantique» ?

Google prétend détenir  la «suprématie quantique»

 

Google  prétend détenir la suprématie quantique d’après une information Financial Times de vendredi. En fait il s’agit sans doute du projet  réalisé en commun avec la NASA qui permet une accélération considérable du traitement des données. Pour l’instant l’ordinateur ne peut effectuer qu’un seul calcul à la fois et non plusieurs calculs en même temps dans le projet définitif de la nouvelle machine. L’accélération du traitement d’un seul calcul serait toutefois considérable, 100 millions de fois plus vite.

Un ordinateur quantique pourrait  résoudre bien plus vite tous les problèmes d’optimisation, ceux où il faut rechercher une solution parmi un très grand nombre de possibilités. Par exemple, cette capacité pourrait aider à développer bien plus vite des molécules thérapeutiques, à réaliser des simulations pour trouver enfin la formule d’un supraconducteur à vraiment haute température, à faire de meilleures prévisions météorologiques, à optimiser les investissements financiers, etc. Comme la question est stratégique, il faut considérer les annonces avec une certaine prudence. Certes la recherche avance, mais les applications ont encore loin d’être opérationnelles et le projet d’ordinateur totalement quantique n’a pas encore abouti.

Selon les chercheurs de l’entreprise californienne, la machine ne peut résoudre qu’un seul calcul à la fois et l’utilisation des machines quantiques pour de réelles applications industrielles ne se fera pas avant plusieurs années. Mais c’est «une étape essentielle vers l’informatique quantique à grande échelle», écrivent-t-ils dans l’étude selon le Financial Times.

 

S’il existe déjà des prototypes d’ordinateurs quantiques, ces derniers ne peuvent actuellement que réaliser des tâches similaires à celles effectuées par un ordinateur normal, mais plus rapidement. Des ordinateurs quantiques aboutis pourraient changer la donne dans des domaines tels que la cryptographie, la chimie ou l’intelligence artificielle.

 

Algorithmes : une obligation de transparence ?

Algorithmes : une obligation de transparence ?

Winston Maxwell enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

A quand le smartphone jetable ?

A quand le  smartphone jetable ?

La vitesse de renouvellement des Smartphones (et autres équipements informatiques) ne cesse de s’accélérer. Une accélération du progrès technologique mais qui résulte aussi de considérations commerciales qui n’ont rien à voir avec la technologie. Ainsi faut-il remplacer de plus en plus souvent des Smartphones dont le prix peut atteindre 2000 $.  Du coup comme il faut être à la mode,  beaucoup se plient aux exigences des constructeurs. En vérité beaucoup de nouveaux appareils n’ont  pour modification que l’ajout de quelques gadgets et un emballage nouveau. Des gadgets qui justifient une puissance supplémentaire donc un nouvel appareil. Certes, eu égard aux évolutions, les changements sont indispensables au bout d’un certain temps mais sans doute pas à ce rythme. Un rythme savamment entretenu pour accélérer l’obsolescence des équipements. À ce rythme, on peut se demander si un jour on ne va pas s’orienter vers des Smartphones jetables dont on pourrait se débarrasser au bout d’un mois, une semaine voire même après une seule utilisation ! Une bonne manière de soutenir la croissance aussi de s’asseoir sur les préoccupations environnementales et les gaspillages.

 

Algorithmes : un droit à la transparence ?

Algorithmes : un droit à la transparence ?

Winston Maxwell,  enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

INTELLIGENCE ARTIFICIELLE : PARIS ET BERLIN POUR UN FONDS COMMUN .

Intelligence artificielle : Paris et Berlin pour  un fonds commun

La France et l’Allemagne viennent  d’annoncer la mise en place d’un fonds commun pour développer  la filière de l’intelligence artificielle. Il était temps car ni en Allemagne, ni en France il n’existe de stratégies à la hauteur des enjeux dans ce domaine. Pour tout dire,  on a nettement sous-estimé le développement exponentiel des  algorithmes qui vont nourrir les transformations du mode de production mais aussi du mode de consommation voir même influencer le domaine naturel. Certes la France ne manque pas de bidouilleurs de génie capable de développer une start-up dans un domaine particulier mais souvent revendues en quelques années  à des firmes américaines voire chinoises. Cette émergence un peu spontané de ne saurait constituer une stratégie. Les insuffisances françaises et allemandes dans ce domaine du numérique sont à l’image des mêmes carences qui concernent cette autre filière que sont les batteries électriques.

Notons que le projet sur l’intelligence artificielle s’inspirera du modèle retenu pour financer le développement d’une filière européenne de batteries de quatrième génération pour les véhicules électriques, déjà fruit d’une initiative franco-allemande, qui vise à contrer le quasi-monopole actuel de la Chine dans ce domaine.

Bruno Le Maire plaide régulièrement pour une plus grande coordination européenne sur les questions industrielles et technologiques, indispensable à ses yeux pour favoriser l’émergence de “géants européens” à même de garantir la “souveraineté technologique” de l’Europe face aux Etats-Unis et à la Chine.

Il est soutenu dans ce projet par le ministre allemand de l’Economie et de l’Energie, Peter Altmaier, qui a jugé dans son discours devant les patrons français que l’intérêt de l’Europe était de se donner les moyens de conserver les données de ses citoyens et de “créer une infrastructure souveraine de données”.

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

1...5051525354...65



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol