Archive pour la Catégorie 'nouvelles technologies'

La révolution numérique et l’émergence d’un nouveau concept narcissique

La révolution numérique et l’émergence d’un nouveau 

concept narcissique (Clotilde Leguil)

 

Notre époque favorise un nouveau narcissisme numérique pour  la philosophe et psychanalyste Clotilde Leguil dans son dernier livre « “Je”, une traversée des identités » (PUF). Elle en attribue la cause à un internet de l’intime qui provoque souffrance et enfermement. Car si le narcissisme est nécessaire à la constitution de l’individu, il devient mortifère quand il n’est pas dépassé. Indiscutablement les technologies numériques ont permis des progrès qui rendent possible de s’affranchir d’une certaine manière de l’espace. Elle constitue un moyen d’ouverture sur le monde en favorisant l’accélération des échanges d’informations, de bien et de culture. C’est un changement fondamental aussi dans les conditions de production et de consommation. Des outils qui peuvent permettre un accès sans limite à la formation, à la culture et à l’échange. Mais des outils qui peuvent aussi aliéner quand en fait le sujet utilisateur de ces technologies devient l’unique objet de l’utilisation de ces outils. Le monde virtuel qui l’accompagne constituant une sorte de miroir sujet lui-même. Avec en plus une addiction quasi permanente à ce miroir. (Interview de lobs) extraites :

Vous expliquez que nous vivons dans une période particulièrement propice au narcissisme, quels en sont les symptômes ?

Tout part d’une formule que j’ai découverte par hasard à Venise. Alors que je me surprenais à regarder des touristes se filmant avec leur iPhone plutôt que de contempler la beauté de la ville, j’ai lu un graffiti : « Le narcissisme de masse est le goulag des temps modernes. » Aphorisme que j’ai trouvé poétique et rassemblant quelque chose d’un diagnostic de notre époque. Il ne s’agit pas pour moi de dénoncer le narcissisme en tant que tel. Ce que j’interroge, c’est une nouvelle version du narcissisme au XXIe siècle, liée à la révolution numérique, un narcissisme à la fois globalisé et enfermant.

Aujourd’hui, l’univers d’internet – les réseaux sociaux, les sites de rencontre etc. – capte quasiment l’entièreté de la libido : les foules sont comme hypnotisées par le regard de l’autre qui les contemple derrière son écran. »

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Le risque d’un contrôle social généralisé par les nouvelles technologies

 

Le risque d’un contrôle social généralisé par les nouvelles technologies  

Les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Chaque chinois  est suivi et noté ! Grâce aux nouveaux outils technologiques, la Chine développe des systèmes très  sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois disposent d’un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs  à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger. Si  les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

La fibre aussi pour les ruraux?

La fibre aussi  pour les ruraux?

 

Finalement, on va peut-être se préoccuper de ces ruraux qui refusent d’adhérer à la philosophie de la métropolisation. Ils pourraient à nouveau nourrir l’espoir d’être raccordé à la fibre contrairement à ce qu’avait déclaré le Premier ministre qui envisageait d’autres solutions comme le satellite ou la 5G. Le problème c’est  que la 5G ce n’est pas pour demain même si on promet de couvrir toute la France dans des délais raisonnables ! Par ailleurs le réseau cuivre est dans un état lamentable, ce sont souvent les fils qui tiennent les poteaux ! Pour aider à la diffusion de la fibre, le gouvernement a indiqué qu’il allait rouvrir les vannes des subventions publiques pour financer en partie les réseaux de fibre dans les campagnes et territoires ruraux. Pour lancer leurs projets, les collectivités pourront à nouveau demander des aides auprès du « guichet France Très haut débit (THD) », qui a été fermé il y a près de deux ans. Cette mesure était très attendue : dans le cadre du plan France Très haut débit – qui ambitionne d’apporter un Internet fixe ultra-rapide à tous les Français à l’horizon 2022 -, il reste 3 millions de foyers en attente de projet de raccordement.

Initialement, le gouvernement a débloqué 3,3 milliards d’euros pour subventionner les réseaux de fibre dans les campagnes. Ce mercredi, Agnès Pannier-Runacher a affirmé qu’avec cette manne, l’exécutif « [est] en capacité de porter l’ensemble des déploiements ». D’après elle, de nombreux déploiements coûtent moins cher que prévu, et les économies réalisées sont progressivement « recyclées » dans les projets à venir. Selon la ministre, les premiers « recyclages » ont permis d’accoucher d’une enveloppe de 140 millions d’euros, laquelle est immédiatement disponible.

Comment cela est-il possible ? A cause de « l’appétence très forte des investisseurs pour les réseaux numériques », répond Julien Denormandie, le secrétaire d’Etat à la Cohésion des territoires. « Dans beaucoup de réseaux, la part de l’investissement privé est aujourd’hui supérieure à ce qu’elle était par le passé, et à ce que nous prévoyions », explique-t-il.

Les collectivités et les industriels de la fibre dans les campagnes ont beau saluer la réouverture du guichet THD, ils estiment qu’une rallonge financière de l’Etat est aussi urgente que nécessaire. Le chiffre de 600 millions d’euros est souvent évoqué. « A budget constant, l’État ne peut en effet financer que 30% [des] premiers dossiers, écrit le député Patrick Chaize. S’il est bien confirmé que le reliquat du plan France THD soit affecté à hauteur de 140 millions d’euros à l’atteinte de l’objectif du 100% fibre pour tous les Français, il convient donc de prévoir, dans le cadre de la loi de finances, d’une première autorisation de programme de 322 millions d’euros supplémentaires. C’est le faible prix à payer pour ne laisser aucun département sur le carreau. » .

 

 

La fin des « zones blanches » pour bientôt ?

La fin des  « zones blanches » pour bientôt ?

 

Ce sera bientôt la fin des zones blanches d’après le gouvernement. Ce n’est pas la première promesse, les premières datent de plus de 20 ans. D’ailleurs l’échéance est floue : la couverture totale aura lieu dans les toutes prochaines années !  Les zones blanches sont les zones mal ou non couvertes ; L’exemple le plus caricatural c’est d’adresser un message vocal faute de liaison, lequel message vocal (ou SMS) ne parviendra que le lendemain au destinataire. La nature de la couverture téléphonique varie en outre dans le temps et en fonction de la météo et de l’encombrement des communications. D’après Julien Denormandie, 1.171 zones blanches ont aujourd’hui été identifiées et « sont en cours de résorption par les opérateurs ».

Conscient de la grogne et du sentiment de déclassement des Français qui vivent dans ces communes, le ministre a indiqué qu’à l’arrivée d’Emmanuel Macron au pouvoir, l’exécutif a été contraint de redéfinir ce qu’était une zone blanche. De fait, seuls 600 territoires étaient jusqu’alors considérés comme tel. Un chiffre très en-deçà de la réalité. « La définition même de ces zones blanches était biaisée, parce qu’à partir du moment où un opérateur avait un signal, et même si ce signal était très faible, la zone n’était plus considérée comme une zone blanche », souligne Julien Denormandie.

Avec l’Arcep, le régulateur des télécoms, le gouvernement a créé un nouveau référentiel. Désormais, une zone « où il n’y a pas au moins un opérateur de bonne qualité »dixit Julien Denormandie, est estampillée « blanche ». Pour pousser les opérateurs à couvrir ces territoires, le gouvernement a signé un accord, baptisé « New Deal », avec eux, en janvier 2018. En échange de la prolongation d’utilisation de certaines fréquences mobiles, les Orange, SFR, Bouygues Telecom et Free se sont engagés à investir 3 milliards d’euros pour améliorer la couverture du territoire, en particulier dans ces fameuses zones blanches.

L’intelligence artificielle : comment prendre en compte l’intelligence humaine ?

L’intelligence artificielle : comment prendre en compte  l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)

« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.):

le risque d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Chaque chinois  est suivi et noté ! Grâce aux nouveaux outils technologiques, la Chine développe des systèmes très  sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Intelligence artificielle : science ou art ?

 

Intelligence artificielle : science ou art ?

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony Retail AI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui s’attarde cependant seulement sur les problèmes méthodologiques et qui n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine, sur les comportements et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

Nouvelles technologies, il n’y a pas que les start-up du numérique !

Nouvelles technologies, il n’y a pas que les start-up du numérique !

Bruno Arabian, Consultant sur le secteur des technologies de santé à l’agence Ulysse Communication constate dans la Tribune l’absence frustrante des biotechnologies et des technologies médicales de la “start-up nation

La liste des Next40 lancée le 18 septembre ne compte aucun entrepreneur de la biotech ou des technologies médicales. Comme si les start-up du numérique incarnaient à elles seules, aux yeux des politiques, l’innovation en France, dénonce Bruno Arabian, consultant en communication du secteur des « Health Techs »

Tribune.

 

 « Le 18 septembre, le président de la République a mis en scène la « start-up nation » et le lancement de Next40, la liste des quarante start-up « à fort potentiel ». La Banque publique d’investissement (BPI) va mobiliser 5 milliards d’euros pour l’innovation. Les dirigeants de start-up du numérique sont aux anges, les banquiers, investisseurs et communicants du numérique le sont tout autant. Car pour la French Tech et notre président, l’innovation en France se limite exclusivement au numérique.

Mais cette belle journée a tout d’un « frichti 3.0 » entre amis. Car pour les représentants d’autres pans entiers de l’innovation en France, cela ressemble plus à un dîner de cons auquel ils n’ont même pas été conviés. C’est notamment le cas du secteur « Health Tech » (biotechnologies et technologies médicales).

Comment accepter l’idée qu’aucune des sociétés des sciences de la vie – dont chacun des fleurons possède plus de brevets que les sélectionnés du Next40 – ne soit de la fête et ne dispose du fameux tampon « future licorne » ?

Certaines ont pourtant levé plusieurs centaines de millions d’euros – le montant des tours de table est pourtant un marqueur primordial pour le milieu de la French Tech. D’autres sont même cotées au Nasdaq, Mecque mondiale de l’innovation. Cette absence est d’autant plus frustrante que la BPI dispose de nombreuses études bien documentées sur le sujet !

 « Le secteur biotech/medtech est encore jeune en France. Il faut lui laisser du temps ! » : C’est l’explication, maintes fois entendue dans les couloirs ministériels. Mais elle est historiquement fausse : ce secteur est né en 1977 à Toulouse, avec Cayla, ou avec Transgene à Strasbourg en 1979… bien avant la naissance des américains Amgen ou Gilead, devenus entre-temps des géants de l’industrie pharmaceutique mondiale.

Pour les représentants d’autres pans entiers de l’innovation en France, cela ressemble plus à un dîner de cons auquel ils n’ont même pas été conviés. C’est notamment le cas du secteur Health Tech …… »

IA : science ou art ?

 

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony RetailAI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui toutefois n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Nouvelles technologies (5G, intrenet, console etc.): le risque d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense.  Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très confiants. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Google refuse de payer les éditeurs d’information

Google refuse de payer les éditeurs d’information  

Google refuse tout simplement qui déjà ne paye pas d’impôts à la hauteur de ses activités en Europe, refuse aussi de payer des droits aux producteurs d’information. Pour cela Google a trouvé la combine : le moteur de recherche ne diffusera plus les textes mais uniquement le titre avec le lien URL. Publiée fin juillet et transposant une directive européenne, la loi française créant “un droit voisin au profit des agences de presse et des éditeurs de presse” impose à l’ensemble des plates-formes, réseaux sociaux et autres sites internet de verser une rémunération juste aux médias dont ils utilisent les articles et dont ils tirent d’importants revenus.

 

Pour les recherches liées à l’actualité, qu’elles soient effectuées via le moteur de recherche ou via Google Actualités, par exemple, Google France, filiale d’Alphabet n’affichera plus désormais des extraits de texte ou une vignette photo, mais uniquement par défaut un titre et un lien URL.

“Lorsque la loi française entrera en vigueur, nous n’afficherons plus d’aperçu du contenu en France pour les éditeurs de presse européens, sauf si l’éditeur a fait les démarches pour nous indiquer que c’est son souhait”, peut-on lire dans un billet publié sur le blog de Google France.

“Ce sera le cas pour les résultats des recherches effectuées à partir de tous les services de Google”, est-il précisé.

Les médias pourront cependant choisir s’ils souhaitent ou non que leurs contenus soient accessibles via les services de Google, définir la taille maximale des images miniatures ou encore le nombre maximal de caractères des aperçus des textes.

Le ministre de la Culture Franck Riester, qui a reçu dans la matinée le vice-président de Google en charge de Google Actualités, Richard Gingras, a jugé que la position de Google sur la rémunération n’était “évidemment pas acceptable”, puisque l’objectif politique des textes français et européen est de “permettre un juste partage de la valeur produite, au bénéfice des plates-formes, par les contenus de presse.”

“La définition unilatérale des règles du jeu est contraire à la fois à l’esprit de la directive et à son texte”, déclare le ministre dans son communiqué, en précisant qu’il compte aborder “très prochainement” le sujet avec ses homologues européens afin de “remédier à cette situation”.

La France est le premier pays de l’Union européenne à mettre en place un tel dispositif, alors qu’une directive européenne en ce sens a été adoptée au printemps dernier.

Les géants du net comme Google et Facebook sont régulièrement accusés de capter l’essentiel de la valeur des contenus hébergés ou mis en ligne sur leurs sites, grâce à la publicité et à la monétisation des données personnelles des utilisateurs.

Dans son billet de blog, Google estime au contraire contribuer à soutenir la presse, en contribuant à élargir la visibilité de certains médias et en “orient(ant) les internautes vers les sites d’information, qui en tirent un revenu supplémentaire”.

Fibre dans les campagnes : c’est pas pour demain

Fibre dans les campagnes : c’est pas pour demain

En dépit des déclarations des lobbys et du gouvernement, la fibre optique, ce n’est pas pour demain dans les campagnes. Certes on affirme que l’ensemble du territoire sera couvert pour donner une image d’aménagement équilibré du territoire mais dans les faits il en va autrement.

Pour l’instant le taux de pénétration de la fibre dans les campagnes n’est « que » de 16%, contre 39% dans les grandes villes, et 42% dans les villes moyennes et les périphéries des grandes agglomérations. De toute manière le Premier ministre lui-même avait pris des précautions d’usage en signalant que la volonté était bien d’équiper la plus grande partie de la France avec la fibre mais que d’autres moyens pourraient être utilisés comme le satellite ou encore la 5G pour suppléer à l’absence de câbles dans les zones peu denses. Notons que ces zones peu denses sont parfois dépourvues de couverture 4G  ou de couverture tout court à certains moments.

Les grands opérateurs nationaux, c’est-à-dire Orange, SFR, Bouygues Telecom et Free se livrent à une concurrence féroce pour équiper les infrastructures dans les grandes villes. Mais dans les campagnes, moins peuplées et bien moins rentables, la donne est différente. Comme les grands opérateurs n’ont pas souhaité y aller spontanément, des réseaux dits d’initiative publique (appelés RIP) ont vu le jour. Ici, ce sont les collectivités qui déploient leurs propres réseaux de fibre, en bénéficiant d’aides financières de l’Etat.

Elles font appel à des opérateurs d’infrastructures, qui sont soit des filiales des grands opérateurs (Orange Collectivité ou SFR Collectivité). Soit d’autres acteurs peu connus du grand public, à l’instar de Covage, Axione (qui appartient au groupe Bouygues), Altitude ou TDF. Ces derniers signent ensuite des accords avec les opérateurs de détail, lesquels commercialisent les abonnements. Les campagnes et zones peu peuplées sont un des grands enjeux du déploiement de la fibre et de l’accès à Internet à très haut débit. Ces territoires regroupent 40% de la population. Ils représentent 17 millions de locaux et habitations à raccorder.  Le problème pour nombre de collectivités locales c’est que souvent la facture a pratiquement doublé par rapport aux devis initiaux et que vraisemblablement certaines zones peu denses seront encore abandonnées et où devront se satisfaire de la liaison via le cuivre (par parenthèse dans un état lamentable) et où de la 4G améliorée.

 

 

 

Droit à l’oubli : l’Europe donne raison à Google

Droit à l’oubli : l’Europe donne raison à Google

 

 

La  Cour de justice de l’Union européenne donne raion à Google et considère que le règlement de protections des données (RGPD) ne s’applique pas hors de l’Europe. En clair, Google et les autres Gafa pourront continuer de diffuser hors de l’Europe  des données sensibles. Le  RGPD permet pourtant à tout citoyen de l’UE de faire retirer d’un moteur de recherche un lien contenant des données sensibles. La Cnil estime que pour être efficace, le droit à l’oubli doit s’appliquer partout dans le monde, et avait même sanctionné Google de 100.000 euros d’amende, en 2016, pour refus d’appliquer le droit au déréférencement dans l’intégralité de ses résultats de recherche, même en dehors du territoire de l’Union européenne. Au contraire, Google affirme qu’un droit à l’oubli mondial est la porte ouverte à tous les abus. Son argument principal est qu’il est important de limiter sa portée au cas où un pays non-démocratique l’utiliserait pour sa propagande.

Du coup, lorsque Google reçoit une demande de déréférencement en Europe, il supprime les résultats concernés uniquement de ses noms de domaines européens (google.fr, google.be, google.de…). Cela signifie qu’on peut retrouver le contenu sur la version américaine ou brésilienne du site, par exemple. L’entreprise restreint bien l’accès à ces liens en fonction de l’adresse IP de l’appareil qui effectue la recherche, mais cette petite protection reste facilement contournable, par exemple avec un VPN (logiciel qui masque ou change la localisation). La Cnil espérait donc étendre le droit à toutes les versions du moteur de recherche.

Sabine Marcellin, avocate spécialisée en droit du numérique et fondatrice du cabinet Aurore Légal, explique à La Tribune les enjeux de ce jugement. Entretien.

-Pour quels types d’informations peut-on demander un déréférencement ?

SABINE MARCELLIN - Cela ne concerne pas toutes les informations personnelles, mais seulement ce que les textes appellent les « données particulières », qu’on qualifie dans le langage courant de  »données sensibles ». Elles sont listées à l’article 9 du RGPD et regroupent tout ce qui a un lien avec les opinions politiques et philosophiques, l’origine, les données génétiques, les données biométriques, l’orientation sexuelle… Ce sont les données les plus intimes, dont la divulgation peut vraiment porter atteinte à la vie privée des personnes. Elles requièrent donc une protection plus importante.

Pourquoi la CJUE a-t-elle donné raison à Google ?

Le droit à l’oubli dans les recherches Google limité à l’UE

v:shapes= »vi-stories-sponsor-logo »>

Les magistrats ont simplement rappelé que le texte s’appliquait dans toute l’Union européenne, même s’ils ont tout de même indiqué qu’il serait souhaitable de « rendre plus difficile les recherches sur les autres extensions. » Mais pour Google, les contraintes ne s’appliquent qu’au sein de l’UE, c’est donc une victoire. Si demain l’autorité allemande se pose une question similaire, elle devra prendre en compte cette interprétation de la CJUE qui s’applique à tous les états membres, dans toutes les commissions nationales. Pour justifier cette interprétation, les magistrats ont développé que tous les pays n’ont pas la même analyse de l’équilibre entre respect de la vie privée et droit à l’information. En revanche, si Google ne respecte pas le droit dans l’UE, il s’expose à des sanctions importantes dans le cadre du RGPD.

Cette décision souligne-t-elle les limites de la conception européenne de la protection des données ?

La Cnil avait l’ambition de faire appliquer l’idée qu’une demande de déréférencement doit s’appliquer partout. Elle argumentait que la protection des données personnelles est un principe absolu, quelle que soit la localisation de l’internaute. Elle s’appuyait sur l’article 3 du RGPD, qui indique que le texte s’applique dans le cadre des activités d’un établissement sur le territoire de l’union, que le traitement de données ait lieu dans le territoire de l’Union ou pas.

Mais la CJUE a dû prendre en compte la question complexe de l’extra-territorialité, dans tous les cas difficiles à mettre en place, car il faut avoir les moyens d’appliquer des règles européennes dans le reste du monde. Or, on touche là à une limite du droit européen : dans d’autres pays, dans ce cas les États-Unis, le droit à l’information est constitutionnel donc très puissant. On peut difficilement lui opposer le RGPD.

Avec ce jugement, la notion d’un droit à l’oubli mondial est-elle définitivement enterrée ?

C’est toujours difficile de se projeter. Mais le monde est découpé en zones, et chacune affirme sa propre conception du droit. La zone européenne a une vision très humaniste du droit : elle privilégie la défense de tous les droits humains, dont le respect de la vie privée, mais également la liberté d’expression. Des pays comme le Canada ou le Japon prennent une voie similaire. En revanche, les États-Unis ont une vision plus économiste qui privilégie la liberté d’entreprendre et la liberté d’entreprise. Certes, ils ont des textes pour encadrer le droit de la vie privée, mais ils sont moins puissants qu’en Europe. Et puis enfin, il y a des zones où le droit est plus utilitariste, comme en Chine. Ces différentes régions vont avec différents équilibres dans la défense des intérêts entre la personne, les entreprises et l’État.

Limites de la tech vis-à-vis de l’environnement (Nicolas Hasard)

Limites de la tech vis-à-vis de l’environnement  (Nicolas Hasard)

 

Dans une interview de la Tribune, Nicolas Hazard, Fondateur du fonds INCO qui accompagne les projets green innovants souligne le rôle de la tech pour l’environnement mais aussi ses limites.

 

 

Le prochain Marseille City Life a pour thème général « Tech et zéro carbone ». Doit-on considérer que l’équation est utopique ou au contraire, tout à fait compatible ?

Nicolas Hasard – Je la pense compatible, mais je pense aussi que la notion du sauveur providentiel est celle qui aujourd’hui fait le plus de mal à l’humanité. Il flagrant de constater par exemple, particulièrement outre-Atlantique, à quel point sont nombreux ceux qui croient en un Christ Sauveur, qui viendra nous secourir de l’apocalypse annoncée. À notre époque, ce Christ, cette croyance, s’appelle la technologie. On se raccroche aujourd’hui à elle, à sa puissance créatrice, elle qui nous accompagne tous les jours et qui a profondément transformé nos vies. C’est objectivement un levier exceptionnel. Pourtant, il n’y a aucune certitude qu’il réussisse à nous sauver, mais l’on s’y complaît, en pensant que de toute façon le progrès technologique nous sauvera in fine de toutes nos turpitudes.

Les solutions innovantes – notamment celles qui utilisent l’hydrogène par exemple – sont mises au point par des startups, c’est-à-dire par de petites structures, certes agiles mais qui n’ont pas autant les moyens de diffusion que les grands groupes. Comment faire pour que les initiatives isolées mais vertueuses soient reprises à grande échelle ?

Dans notre incubateur INCOPLEX Green Sud à Marseille, nous accompagnons une start-up bien connue ici, Hysilabs, qui a le potentiel pour révolutionner cette source d’énergie exceptionnelle qu’est l’hydrogène, notamment en facilitant son transport. Pour que ce type d’initiative change d’échelle, il faut la connecter à un écosystème d’investisseurs et surtout de grands groupes industriels qui seront en mesure de lui permettre d’expérimenter ses solutions et de les mettre sur le marché. L’open innovation, c’est-à-dire l’innovation ouverte qui mets en relation start-ups et grandes entreprises, c’est le modèle que nous prônons au sein nos incubateurs, car il permet aux start-up de frotter leurs innovations aux réalités des attentes des grands acteurs économiques. Nous appliquons les mêmes principes dans notre incubateur dédié à la prévention santé, le Prevent2Care Lab, basé ici à Marseille chez Kedge BS.

Dans votre dernier ouvrage « Appel à la guerilla mondiale » vous incitez chaque citoyen à devenir un guerillero et à « hacker » le système. Pourquoi si le zéro carbone semble être la préoccupation de tous, n’arrive-t-on pas à véritablement modifier les habitudes ?

Il existe sans doute mille raisons qui peuvent expliquer pourquoi nous sommes si inconscients et inconsistants face à l’énorme défi environnemental et à quel point nous avons la capacité à répéter les mêmes erreurs que les civilisations qui nous ont précédées, dont certaines ont dilapidé leur capital naturel, et ont été balayées. Il faut changer de modèle de façon radicale et l’une des solutions c’est aller vers la smart city, certes, mais plus encore, vers le « smart country ». C’est-à-dire vers une déconcentration, une relocalisation, une restitution du « pouvoir vivre » à tous les territoires urbain et ruraux. Il faudrait à nouveau que chaque territoire se considère davantage comme un archipel indépendant. En matière d’énergie, de mobilité, d’urbanisme, d’agriculture : c’est à l’échelle locale que les alternatives s’élaborent, que les acteurs publics et privés transforment en profondeur le développement économique et la façon dont nous consommons.

 

TripAdvisor : un exemple d’avis bidon d’internautes

TripAdvisor : un exemple d’avis bidon d’internautes

 

La plate-forme américaine sur le tourisme offre un exemple des avis bidon d’internautes. Certains sont frauduleux mais d’autres caricaturaux en tout cas excessifs dans un sens dans un autre. Cela vaut la plate-forme américaine sur le tourisme qui a décidé de revoir le système de modération. D’une façon générale, les vis-à-vis d’internautes sur des produits ou des publications présentent assez peu d’intérêt quand ils ne sont pas d’une nullité désarmante.  Le principal reproche qu’on peut leur faire est d’être assez caricatural soit pour, soit contre et souvent sans beaucoup de justifications. Les sites ont évidemment tendance à publier surtout les avis adorables qui servent leur image de marque ; ce qui enlève toute crédibilité à ce type d’appréciation. Pour donner un peu de crédit aux louanges excessives, on laisse passer un ou deux avis négatifs. Bref, c’est de la grosse ficelle de nature commerciale. Certains sites un peu sérieux et moins commerciaux livrent toutefois des avis positifs ou négatifs mais très argumentés. Mais c’est  plutôt une exception. D’une manière générale mieux vaut se fier aux sites qui ne publient pas d’avis bidon et ni d’avis excessifs d’internautes. La plate-forme américaine TripAdvisor   indique que 4,7 % des avis envoyés en 2018 ont été rejetés ou supprimés, 2,1 % étant réellement frauduleux. Les établissements identifiés comme fraudeurs font l’objet de sanctions graduées, affirme-t-elle. Cependant ces chiffres sont sans doute nettement sous-évalués. Il ne serait pas inintéressant de connaître l’avis d’internautes mais encore faudrait-il que les modérateurs soient complètement indépendants alors que pour la plupart ils dépendent directement du site en question.

Manif en Suisse contre la 5G à Berne

Manif  en Suisse contre la 5G à Berne

 

 

Une manif en Suisse contre le déploiement de la 5G. Plus de 200 scientifiques et médecins ont d’ailleurs demandé un moratoire sur la 5G. Risques élevés de cancers, dommages génétiques et désordres neurologiques sont notamment mis en avant par ces savants. Les opposants à la 5G en Suisse craignent les effets des rayonnements électromagnétiques de cette technologie et plusieurs cantons, mis sous pression par des pétitions en ligne, ont gelé les procédures pour la construction d’antennes, au nom du principe de précaution, comme à Genève, Vaud, Fribourg et Neuchâtel.

La très puissante Fédération suisse des médecins (FMH) plaide aussi pour la prudence, expliquant que «tant qu’il ne sera pas prouvé scientifiquement qu’une augmentation des valeurs limites de rayonnement actuelles n’a aucun impact sur la santé, il faudrait renoncer à les augmenter».

 

Plusieurs milliers de personnes ont manifesté samedi dans la capitale suisse, Berne, pour s’opposer à la 5G déploiement. «Boycott 5G» ou «Toujours plus vite, plus haut, plus loin, au détriment de l’homme et de l’Environnement, Stop 5G», pouvait-on lire sur les pancartes déployées par les manifestants, face au siège du Parlement suisse, pour dénoncer une technologie jugée nocive pour la santé.

«Qu’aujourd’hui, autant de personnes se soient rassemblées, c’est un signe fort contre l’introduction incontrôlée de la 5G», s’est félicitée Tamlin Schibler Ulmann, la co-présidente de Frenquencia, l’association à l’origine du rassemblement, dans un communiqué. Après la Corée du Sud, la Suisse est l’un des premiers pays au monde à s’être lancé dans la 5G, cette infrastructure mobile au cœur d’un affrontement technologique entre les États-Unis et la Chine.

 

 

Google : la «suprématie quantique» ?

Google prétend détenir  la «suprématie quantique»

 

Google  prétend détenir la suprématie quantique d’après une information Financial Times de vendredi. En fait il s’agit sans doute du projet  réalisé en commun avec la NASA qui permet une accélération considérable du traitement des données. Pour l’instant l’ordinateur ne peut effectuer qu’un seul calcul à la fois et non plusieurs calculs en même temps dans le projet définitif de la nouvelle machine. L’accélération du traitement d’un seul calcul serait toutefois considérable, 100 millions de fois plus vite.

Un ordinateur quantique pourrait  résoudre bien plus vite tous les problèmes d’optimisation, ceux où il faut rechercher une solution parmi un très grand nombre de possibilités. Par exemple, cette capacité pourrait aider à développer bien plus vite des molécules thérapeutiques, à réaliser des simulations pour trouver enfin la formule d’un supraconducteur à vraiment haute température, à faire de meilleures prévisions météorologiques, à optimiser les investissements financiers, etc. Comme la question est stratégique, il faut considérer les annonces avec une certaine prudence. Certes la recherche avance, mais les applications ont encore loin d’être opérationnelles et le projet d’ordinateur totalement quantique n’a pas encore abouti.

Selon les chercheurs de l’entreprise californienne, la machine ne peut résoudre qu’un seul calcul à la fois et l’utilisation des machines quantiques pour de réelles applications industrielles ne se fera pas avant plusieurs années. Mais c’est «une étape essentielle vers l’informatique quantique à grande échelle», écrivent-t-ils dans l’étude selon le Financial Times.

 

S’il existe déjà des prototypes d’ordinateurs quantiques, ces derniers ne peuvent actuellement que réaliser des tâches similaires à celles effectuées par un ordinateur normal, mais plus rapidement. Des ordinateurs quantiques aboutis pourraient changer la donne dans des domaines tels que la cryptographie, la chimie ou l’intelligence artificielle.

 

Algorithmes : une obligation de transparence ?

Algorithmes : une obligation de transparence ?

Winston Maxwell enseignant-chercheur, responsable du département sciences économiques et sociales à Télécom ParisTech s’interroge sur le concept d’un droit à l’explicabilité des algorithmes. La transparence et la compréhension sont nécessaires à leur développement notamment par exemple en matière d’intelligence artificielle. Faute de cela, il y aura des bocages sociétaux.

« Il est indispensable de répondre avec discernement à la demande de transparence sur le fonctionnement des algorithmes, affirment, dans une tribune au « Monde », les chercheurs David Bounie et Winston Maxwell. »

Tribune. De plus en plus présents dans l’économie mais aussi dans notre vie quotidienne, les algorithmes ne cessent de nous questionner. L’algorithme utilisé pour Parcoursup a défrayé la chronique sur le sujet de la transparence des algorithmes locaux utilisés par les universités pour inscrire les étudiants, et une proposition de loi est annoncée sur le sujet par le Sénat pour rendre obligatoire leur publication. Le débat est ouvert, illustrant la difficulté de concilier la transparence des algorithmes avec d’autres impératifs, tels que le secret des délibérations des équipes pédagogiques.

Aujourd’hui, tous domaines confondus, on met régulièrement en cause ces « boîtes noires » dont les décisions se voient accusées d’être biaisées et de discriminer les personnes, volontairement ou involontairement, en fonction de leur genre, de leur origine ethnique, ou encore de leur orientation sexuelle. Si efficacité de l’algorithme ne rime pas forcément avec neutralité, il semble nécessaire de comprendre comment il produit un résultat.*

Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées.

Outre la future proposition de loi sur Parcoursup, la déclaration des pays du G20 et de l’Organisation de coopération et de développement économiques (OCDE) prône une explicabilité des algorithmes. Le rapport Villani sur l’intelligence artificielle (« Donner un sens à l’intelligence artificielle », voir lien PDF), le rapport du groupe d’experts de la Commission européenne, le Règlement général de protection des données (RGPD), la loi Lemaire, le nouveau règlement européen Platform to Business… chaque initiative propose une approche différente de l’explicabilité

 

Si l’on ne parvient pas à répondre à cette question de l’explicabilité, le développement attendu de l’intelligence artificielle en France et en Europe sera freiné. Les enjeux sont colossaux et dépassent le débat sur la transparence des plates-formes. Les initiatives réglementaires prolifèrent sans nécessairement être coordonnées….. » 

12345...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol