Archive pour la Catégorie 'nouvelles technologies'

Automobiles autonomes: un concept illusoire

Automobiles  autonomes: un concept illusoire

 

 

 

Le 8 novembre dernier, Waymo, succursale d’Alphabet consacrée aux véhicules sans chauffeur, annonçait la fermeture de ses opérations à Austin (Texas), où l’entreprise avait, en 2015, transporté pour la première fois un paséconomie politique société par Gaston Bessay (voir le blog)

sager à bord d’un de ses véhicules. Elle affirme vouloir ainsi concentrer ses efforts sur la ville de Phoenix, en Arizona, où Waymo fournit un service de taxi autonome intégré à la plateforme Lyft, rivale d’Uber. Difficile, cependant, de ne pas voir dans cette annonce quelque chose de symbolique. Car si les taxis autonomes suscitent depuis plusieurs années de nombreux espoirs, leurs promesses tardent à se concrétiser.

En octobre, les analystes de la banque d’investissement Morgan Stanley ont amputé la valeur estimée de Waymo de 40 %. Motif : la commercialisation de ses taxis autonomes prend plus de temps que prévu, et ces derniers restent dépendants des chauffeurs humains. « Nous avons surestimé l’arrivée des véhicules autonomes », a de son côté avoué Jim Hackett, le directeur général de Ford, à l’occasion du Detroit Economic Club, un symposium qui s’est tenu en avril dans l’ex-capitale américaine.. Le 8 novembre dernier, Waymo, succursale d’Alphabet consacrée aux véhicules sans chauffeur, annonçait la fermeture de ses opérations à Austin (Texas),.

 

On peut se demander si le concept n’est pas une  utopie car il pose d’énormes problèmes de sécurité et de responsabilité. Fortement bousculé par l’affaire des émissions polluantes,  le secteur automobile tente de réagir en soulignant le caractère de modernité de l’automobile future. L’objectif est évidemment de peser pour que l’automobile ne soit pas exclue un jour de la ville. On affirme ainsi que l’automobile sera autonome, électrique et connectée. Le patron de Valeo dans une interview au JDD affirmait que cette voiture autonome et même déjà la. Il est évident que la voiture électrique va se substituer au moteur à combustion et que d’ici une dizaine d’années 80 % des véhicules neufs seront électriques ( à moins que la filière hydrogène !). La connexion, qui existe déjà, va continuer de s’amplifier. Reste la question de l’autonomie et du partage. Contrairement à ce qu’affirme le patron de Valeo l’autonomie totale n’est pas pour demain. Pour des raisons de sécurité, elle nécessite notamment des infrastructures spécifiques finalement un peu comme le métro ou le train. Pour l’instant, les navettes mobiles qui existent fonctionnent sur le mode ferroviaire. Les autres qui circulent sur les voies normales présentent un énorme risque.  Reste aussi la question fondamentale de l’automobile partagée qui constitue aussi un enjeu central pour l’industrie automobile. Sachant qu’un véhicule classique passe plus de 95 % de son temps à l’arrêt, il est évident que des formules de mutualisation sous différentes formes seront mises en place. Mais cette mutualisation aura un impact considérable sur le nombre de véhicules fabriqués. Ceci étant  l’interview de Jacques Aschenbroich, président de Valeo  au JDD  mérite d’être lue.

 

À quand la première voiture autonome commercialisée?
La première voiture autonome est déjà là. Nous avons pris une participation de 5% dans une start-up qui s’appelle Navya, dont les véhicules électriques et autonomes, des navettes, circulent à Sion en Suisse, à Confluence à Lyon, à La Défense, dans le Michigan ou à Singapour. En revanche, il faudra attendre encore un peu de temps pour que vous et moi puissions acheter une voiture totalement autonome.

 

Ce sera dans cinq, dix ou vingt ans?
Des voitures partiellement autonomes, ce sera dans quelques années. Vous pourrez déléguer leur conduite à certains moments et dans certaines conditions. Une voiture dans laquelle vous n’aurez ni volant ni pédales, cela va prendre plus de temps. Entre cinq et dix ans sans doute.

 

Laisser un véhicule se garer tout seul dans un parking, est-ce déjà possible?
Il y a déjà un modèle de la classe E de Daimler que vous pouvez envoyer se garer tout seul avec votre smartphone. Nous avons développé ce système avec le constructeur allemand. Valeo et Cisco ont développé une technologie qui permet aux voitures de se garer seules dans un parking. Beaucoup de parkings dans le monde sont intéressés par cette nouvelle technologie, mais cela prendra encore quelque temps avant que l’on passe à la phase commerciale.

 

L’automobile autonome sera-t-elle aussi partagée?
Le sujet de la propriété de la voiture versus la voiture considérée comme un service est un changement sociologique profond. Quand vous ou moi possédons un véhicule, il est utilisé 4 à 5% de son temps. Sinon, il dort dans un garage. Partager l’usage de la voiture, c’est ce que l’on fait avec un taxi ou avec les nouveaux services qui sont apparus comme Uber ou Blablacar. La plus grande innovation d’Uber est que le prix dépend du nombre de personnes ou de la demande. Une innovation absolument fabuleuse qui est rendue possible par des systèmes digitaux.

 

 Est-ce qu’un jour, dans les grandes villes, vous cesserez d’avoir votre automobile comme vous avez cessé d’avoir votre vélo pour utiliser un Vélib’?

Personne ne connaît la réponse à cette question. Le frein est que l’on part tous au travail ou en vacances en même temps.

 

La technologie de l’automobile autonome doit-elle encore progresser?
Les bases sont là mais les logiciels qu’il faut embarquer dans la voiture sont d’une très grande complexité. Il faut encore beaucoup travailler. Nous sommes numéro un mondial pour les caméras, les capteurs ultrason, les radars ou les lidars avec tous les logiciels qui permettent d’interpréter les données. Mais il faut encore redoubler d’efforts pour qu’une voiture soit autonome en toutes circonstances. Un exemple de problème à régler : ces capteurs doivent être utilisables tout le temps. Pour que l’automobile ne soit jamais aveugle, il faut les nettoyer, et cela coûte cher.

 

La voiture autonome a fait entrer les Gafa sur le marché de l’automobile. Vont-ils le changer comme Amazon bouscule la distribution?
L’histoire n’est pas écrite. Pour l’instant, les constructeurs et les géants du digital travaillent souvent ensemble. Mais l’important sera de savoir où se trouvera la valeur. Concevoir et construire une voiture, ce n’est pas si facile que ça. Ces deux mondes se développent en essayant d’entrer dans la mobilité digitale avec leurs armes respectives : le combat est ouvert.

Si les véhicules deviennent propres, tout ira bien?
Oui, la voiture électrique sera un des éléments essentiels de la mobilité urbaine en complément des transports en commun.

 

Comment jugez-vous les politiques lorsqu’ils rendent la circulation plus difficile à Paris?
Joker! Ce n’est pas en fossilisant l’espace urbain que vous assurez son développement économique.

 

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

5G: avec ou sans Huawei en Europe ?

5G: avec ou sans  Huawei en Europe ?

 

Pas vraiment un boycott de l’union économique vis-à-vis du chinois Huawei mais pour l’instant une recommandation:   »prendre en considération le régime politique dans lequel évoluent les fournisseurs originaires de pays tiers » afin d’atténuer les risques sur la sécurité liés au développement de la 5G en Europe.

Réunis à Bruxelles, les ministres européens des Télécommunications, ou leurs représentants, ne désignent aucun pays dans leur déclaration commune, mais la Chine et son géant des télécoms Huawei, pionnier dans la technologie 5G, étaient présents dans tous les esprits. Le problème c’est que l’Allemagne est assez écartelée sur ce dossier. Elle ne veut pas déplaire aux chinois pour ne pas handicaper les exportations allemandes mais elle doit être attentive à ne pas froisser Trump  et pénaliser ses ventes de voitures vers les États-Unis.

Alors que les États-Unis ont exclu Huawei du déploiement de la 5G sur leur sol, invoquant des risques d’espionnage pour le compte de Pékin et tentent de convaincre leurs alliés d’en faire autant, les Européens ont fait jusqu’à présent la sourde oreille aux demandes américaines, tandis que Huawei rejettent les accusations le concernant.

Au sein de l’UE, Huawei est en concurrence avec deux équipementiers européens: le suédois Ericsson et le finlandais Nokia, qui a racheté le franco-américain Alcatel-Lucent. Le nouveau commissaire européen au Marché intérieur et au Numérique, le Français Thierry Breton, a d’ailleurs mis en exergue le savoir-faire européen lors d’une conférence de presse.

 

« L’Europe n’est pas en retard en matière de 5G, contrairement à ce que l’on peut dire ici ou là, l’Europe dispose de grands acteurs industriels et, à travers eux, du plus large portefeuille en termes de brevets: plus de 55% de brevets de la 5G sont d’origine européenne », a-t-il plaidé.

Thierry Breton a également insisté sur la garantie d’une concurrence « juste et loyale » sur le territoire européen de la part de fournisseurs de pays tiers. « Nous avons des règles Il faut regarder évidemment les problèmes de réciprocité, de subsides », a observé le nouveau commissaire européen. Là encore, il s’agit d’une allusion à peine voilée à Huawei et au marché chinois, critiqué pour son manque criant d’ouverture aux compagnies étrangères.

Automobiles autonomes: c’est pas pour demain

Automobiles  autonomes: c’est pas pour demain

 

 

Le 8 novembre dernier, Waymo, succursale d’Alphabet consacrée aux véhicules sans chauffeur, annonçait la fermeture de ses opérations à Austin (Texas), où l’entreprise avait, en 2015, transporté pour la première fois un passager à bord d’un de ses véhicules. Elle affirme vouloir ainsi concentrer ses efforts sur la ville de Phoenix, en Arizona, où Waymo fournit un service de taxi autonome intégré à la plateforme Lyft, rivale d’Uber. Difficile, cependant, de ne pas voir dans cette annonce quelque chose de symbolique. Car si les taxis autonomes suscitent depuis plusieurs années de nombreux espoirs, leurs promesses tardent à se concrétiser.

En octobre, les analystes de la banque d’investissement Morgan Stanley ont amputé la valeur estimée de Waymo de 40 %. Motif : la commercialisation de ses taxis autonomes prend plus de temps que prévu, et ces derniers restent dépendants des chauffeurs humains. « Nous avons surestimé l’arrivée des véhicules autonomes », a de son côté avoué Jim Hackett, le directeur général de Ford, à l’occasion du Detroit Economic Club, un symposium qui s’est tenu en avril dans l’ex-capitale américaine.. Le 8 novembre dernier, Waymo, succursale d’Alphabet consacrée aux véhicules sans chauffeur, annonçait la fermeture de ses opérations à Austin (Texas),.

 

On peut se demander si le concept n’est pas une  utopie car il pose d’énormes problèmes de sécurité et de responsabilité. Fortement bousculé par l’affaire des émissions polluantes,  le secteur automobile tente de réagir en soulignant le caractère de modernité de l’automobile future. L’objectif est évidemment de peser pour que l’automobile ne soit pas exclue un jour de la ville. On affirme ainsi que l’automobile sera autonome, électrique et connectée. Le patron de Valeo dans une interview au JDD affirmait que cette voiture autonome et même déjà la. Il est évident que la voiture électrique va se substituer au moteur à combustion et que d’ici une dizaine d’années 80 % des véhicules neufs seront électriques ( à moins que la filière hydrogène !). La connexion, qui existe déjà, va continuer de s’amplifier. Reste la question de l’autonomie et du partage. Contrairement à ce qu’affirme le patron de Valeo l’autonomie totale n’est pas pour demain. Pour des raisons de sécurité, elle nécessite notamment des infrastructures spécifiques finalement un peu comme le métro ou le train. Pour l’instant, les navettes mobiles qui existent fonctionnent sur le mode ferroviaire. Les autres qui circulent sur les voies normales présentent un énorme risque.  Reste aussi la question fondamentale de l’automobile partagée qui constitue aussi un enjeu central pour l’industrie automobile. Sachant qu’un véhicule classique passe plus de 95 % de son temps à l’arrêt, il est évident que des formules de mutualisation sous différentes formes seront mises en place. Mais cette mutualisation aura un impact considérable sur le nombre de véhicules fabriqués. Ceci étant  l’interview de Jacques Aschenbroich, président de Valeo  au JDD  mérite d’être lue.

 

À quand la première voiture autonome commercialisée?
La première voiture autonome est déjà là. Nous avons pris une participation de 5% dans une start-up qui s’appelle Navya, dont les véhicules électriques et autonomes, des navettes, circulent à Sion en Suisse, à Confluence à Lyon, à La Défense, dans le Michigan ou à Singapour. En revanche, il faudra attendre encore un peu de temps pour que vous et moi puissions acheter une voiture totalement autonome.

 

Ce sera dans cinq, dix ou vingt ans?
Des voitures partiellement autonomes, ce sera dans quelques années. Vous pourrez déléguer leur conduite à certains moments et dans certaines conditions. Une voiture dans laquelle vous n’aurez ni volant ni pédales, cela va prendre plus de temps. Entre cinq et dix ans sans doute.

 

Laisser un véhicule se garer tout seul dans un parking, est-ce déjà possible?
Il y a déjà un modèle de la classe E de Daimler que vous pouvez envoyer se garer tout seul avec votre smartphone. Nous avons développé ce système avec le constructeur allemand. Valeo et Cisco ont développé une technologie qui permet aux voitures de se garer seules dans un parking. Beaucoup de parkings dans le monde sont intéressés par cette nouvelle technologie, mais cela prendra encore quelque temps avant que l’on passe à la phase commerciale.

 

L’automobile autonome sera-t-elle aussi partagée?
Le sujet de la propriété de la voiture versus la voiture considérée comme un service est un changement sociologique profond. Quand vous ou moi possédons un véhicule, il est utilisé 4 à 5% de son temps. Sinon, il dort dans un garage. Partager l’usage de la voiture, c’est ce que l’on fait avec un taxi ou avec les nouveaux services qui sont apparus comme Uber ou Blablacar. La plus grande innovation d’Uber est que le prix dépend du nombre de personnes ou de la demande. Une innovation absolument fabuleuse qui est rendue possible par des systèmes digitaux.

 

 Est-ce qu’un jour, dans les grandes villes, vous cesserez d’avoir votre automobile comme vous avez cessé d’avoir votre vélo pour utiliser un Vélib’?

Personne ne connaît la réponse à cette question. Le frein est que l’on part tous au travail ou en vacances en même temps.

 

La technologie de l’automobile autonome doit-elle encore progresser?
Les bases sont là mais les logiciels qu’il faut embarquer dans la voiture sont d’une très grande complexité. Il faut encore beaucoup travailler. Nous sommes numéro un mondial pour les caméras, les capteurs ultrason, les radars ou les lidars avec tous les logiciels qui permettent d’interpréter les données. Mais il faut encore redoubler d’efforts pour qu’une voiture soit autonome en toutes circonstances. Un exemple de problème à régler : ces capteurs doivent être utilisables tout le temps. Pour que l’automobile ne soit jamais aveugle, il faut les nettoyer, et cela coûte cher.

 

La voiture autonome a fait entrer les Gafa sur le marché de l’automobile. Vont-ils le changer comme Amazon bouscule la distribution?
L’histoire n’est pas écrite. Pour l’instant, les constructeurs et les géants du digital travaillent souvent ensemble. Mais l’important sera de savoir où se trouvera la valeur. Concevoir et construire une voiture, ce n’est pas si facile que ça. Ces deux mondes se développent en essayant d’entrer dans la mobilité digitale avec leurs armes respectives : le combat est ouvert.

Si les véhicules deviennent propres, tout ira bien?
Oui, la voiture électrique sera un des éléments essentiels de la mobilité urbaine en complément des transports en commun.

 

Comment jugez-vous les politiques lorsqu’ils rendent la circulation plus difficile à Paris?
Joker! Ce n’est pas en fossilisant l’espace urbain que vous assurez son développement économique.

 

 

Energie-L’hydrogène : quel avenir ?

L’hydrogène : quel avenir ?

L’hydrogène est déjà utilisé dans des trains, des autocars, des automobiles ou même des scooters. Une  voiture vient de franchir la barre des 700 kilomètres avec un seul plein d’hydrogène, effaçant, ce mardi 26 novembre, le précédent record de 695 kilomètres établi en juillet 2014 par une équipe norvégienne.  L’hydrogène peut être utilisé dans le transport mais aussi comme moyen de chauffage. La question de la sécurité est de mieux en mieux prise en charge ;  se pose surcoût le problème de sa compétitivité car produire de l’hydrogène coûte cher. .Une voiture a hydrogène coûte le double d’une voiture purement électrique.  Il s’agit de questions techniques mais aussi d’économie d’échelle car l’hydrogène est utilisé aujourd’hui de manière très marginale.   La question est de savoir si cette filière peut prendre une dimension de masse voir éventuellement se substituer à la voiture purement électrique utilisant des batteries ( sources Natura sciences et  le Figaro).

 

L’hydrogène est l’élément chimique le plus abondant de l’univers. Il s’agit d’un corps simple, gazeux, qui entre notamment dans la composition de l’eau. «Chaque molécule d’eau est le fruit de la combinaison entre 1 atome d’oxygène et 2 atomes d’hydrogène. On trouve aussi de l’hydrogène dans les hydrocarbures (pétrole et gaz) qui sont issus de la combinaison d’atomes de carbone et d’hydrogène», explique l’IFP énergie nouvelle (IFPEN), sur son site. L’hydrogène n’est pas une source d’énergie directe mais plutôt un vecteur énergétique. Dans les transports il est par exemple utilisé dans une pile à combustible pour générer de l’énergie.

 

L’hydrogène n’existe pas à l’état pur. Pour le produire, il faut utiliser des procédés chimiques pour séparer l’hydrogène des éléments auxquels il est associé. Il faut pour cela une source d’hydrogène et une source d’énergie. L’hydrogène peut ainsi être fabriqué par «vaporeformage de gaz naturel, électrolyse de l’eau, gazéification et pyrolyse de la biomasse, décomposition thermochimique ou photochimique de l’eau, production biologique à partir d’algues ou de bactéries», énumère l’Ademe,

Avant d’utiliser l’hydrogène, il faut le produire. Et c’est là que le bât blesse ! Il est aujourd’hui synthétisé à hauteur de 95 % à partir d’énergies fossiles. Pour ce faire, il faut beaucoup d’énergie et les émissions de CO2 sont importantes. Les techniques les plus utilisées sont le reformage, le vaporeformage et la gazéification. Une transition est donc à effectuer vers des modes de productions plus « propres ».

Replacer le pétrole et le gaz par l’hydrogène ne présente un intérêt que lorsqu’on peut le produire de façon décarbonée. Air Liquide a mis en place l’initiative Blue Hydrogen afin que 50 % de ses applications d’hydrogène énergie soient couvertes par des moyens bas carbone ou zéro carbone d’ici 2020. « On essaye de trouver le juste compromis entre faible teneur carbone et les contraintes économiques acceptables pour l’ensemble des applications », affirme Jean-Baptiste Mossa.

De nombreux travaux sont menés pour produire de l’hydrogène plus « propre » à partir de méthane, de biomasse et de déchets. En effet, il est possible de faire fermenter des bioressources. Les gaz de fermentations sont récupérables et filtrables pour concentrer le méthane qui servira à produire l’hydrogène. Couplé à un mode de capture du CO2, les émissions seraient nulles. Des travaux sont menés en France sur cette technique.L’hydrogène peut également être produit par électrolyse de l’eau. En utilisant de l’électricité d’origine renouvelable, il est possible de produire de l’hydrogène décarboné. Des démonstrateurs sont en cours. D’autres solutions de stockage sont à l’étude. Au Canada, par exemple, un barrage hydraulique alimente un électrolyseur pour produire de l’hydrogène.L’hydrogène est aussi produit dans des process industriels : il s’agit de l’l’hydrogène « fatal » produit, par exemple, lors de la fabrication du chlore ou de l’ammmoniac. Faute de valorisation, cette hydrogène est aujourd’hui brûlé et donc perdu. « Rien qu’en Europe, il y a moyen de faire rouler 2 millions de véhicules de piles à hydrogène avec de l’hydrogène fatal ; en France, 330 000 véhicules ! », affirme Bertrand Chauvet, Responsable du marketing de SymbioFCell. Pourquoi ne pas le récupérer ?Mais finalement, la révolution de l’hydrogène proviendra peut-être de la croûte terrestre. Alors que l’on pensait que l’hydrogène n’existait pas pur à l’état naturel, à part dans des sources inexploitables découvertes en mer, IFP Energies nouvelles a mis en évidence des émanations naturelles continues d’hydrogène sur terre.

Comme le précise l’IFPEN, «la molécule d’hydrogène, composée de deux atomes d’hydrogène, est particulièrement énergétique: 1 kg d’hydrogène libère environ trois fois plus d’énergie qu’1 kg d’essence». De plus, l’hydrogène, lorsqu’il est produit à partir de ressources renouvelables, est considéré comme non polluant. «Les rejets d’un véhicule à hydrogène sont composés uniquement d’eau. Il n’y a aucune émission de particule nocive ou de Co²», affirme Erwin Penfornis, directeur du marché hydrogène chez Air Liquide. Autre avantage selon le spécialiste: «Avec l’hydrogène, il y a plus d’autonomie et c’est plus rapide à recharger. Il faut compter un temps de recharge d’environ 3 minutes dans une station de remplissage».

 

L’hydrogène est aussi considéré comme un moyen durable de stocker de l’énergie. «On peut stocker les surplus d’énergies renouvelables pour pouvoir les réutiliser plus tard, ce qui n’est pas possible avec l’électricité. C’est un enjeu énorme permettant d’intégrer plus de renouvelable dans la consommation énergétique», assure Erwin Penfornis. «Des pays comme le Japon ont compris qu’ils allaient avoir besoin de ce vecteur énergétique qui peut être produit ailleurs, stocké et transporté par navire, camion ou par pipeline. C’est pour cela que le Japon est le pays le plus avancé dans ce secteur de l’hydrogène», explique-t-on chez Air Liquide. Le groupe a d’ailleurs annoncé l’an dernier la création d’une société commune avec 10 entreprises japonaises pour accélérer le développement du réseau de stations de recharge d’hydrogène dans l’archipel. Objectif: construire un réseau de 320 stations d’ici 2025, et 900 d’ici 2030.

 

Pour le moment, la consommation mondiale d’hydrogène reste encore faible: environ 56 millions de tonnes, soit moins de 2% de la consommation mondiale d’énergie. Mais d’après une étude réalisée par le Hydrogen Council avec McKinsey, l’hydrogène pourrait représenter près d’un cinquième de l’énergie totale consommée à l’horizon 2050. «Cela permettrait de contribuer à hauteur de 20% à la diminution requise pour limiter le réchauffement climatique à 2°C», explique l’Hydrogen Council, qui considère que l’hydrogène pourrait alimenter 10 à 15 millions de voitures et 500.000 camions d’ici à 2030. Selon cette étude, la demande annuelle d’hydrogène pourrait globalement être multipliée par dix d’ici à 2050 et représenter 18% de la demande énergétique finale totale dans le scénario des 2°C. À cet horizon, l’hydrogène pourrait générer un chiffre d’affaires de 2500 milliards de dollars et créer plus de 30 millions d’emplois.

«Cette molécule est utilisée depuis longtemps dans l’industrie comme matière première. Air Liquide par exemple en fournit depuis 50 ans à des secteurs comme le raffinage, la chimie ou le domaine spatial. L’hydrogène est notamment le carburant de lancement de la fusée Ariane depuis des décennies», explique Erwin Penfornis. Mais son utilisation est très large. «L’hydrogène a la capacité d’alimenter tous les usages énergétiques comme le transport ou le chauffage», ajoute le spécialiste.

 

 

C’est surtout dans les transports que son usage évolue. «L’hydrogène, stocké dans des réservoirs, est transformé en électricité grâce à une pile à combustible», explique-t-on chez Air Liquide.

 

«Technologie 5G : plus polluant que le transport aérien !

«Technologie  5G : plus polluant que le transport aérien !

La technologie 5g – et ses applications- sera particulièrement énergivore  et sera responsable d’émissions polluantes supérieures au transport aérien d’après Joachim Renaudin, expert du numérique, ( tribune au « Monde » )

 

Tribune.

 » Le numérique fait plus que jamais partie de nos vies. Regarder un film sur Netflix, jouer à un jeu vidéo sur mobile, travailler en visioconférence… Ces actions du quotidien peuvent paraître anodines, mais leur impact pour la planète est immense. En 2018, le numérique représentait 4 % des émissions de gaz à effet de serre (40 % de plus que le transport aérien) et pourrait doubler sa part d’ici à 2025 ; 55 % de ces émissions liées au numérique proviennent du trafic de données, dopé par l’explosion de la vidéo et du streaming (« Pour une sobriété numérique », The Shift Project, octobre 2018).

Derrière l’aspect intangible du numérique et de ses données stockées dans le cloud se cache évidemment une réalité tout autre, faite de câbles, de serveurs et de terminaux énergivores. Les équipements réseaux comptent pour un tiers de la consommation d’énergie numérique. Sur cette consommation, 15 % seulement de l’énergie utilisée par les réseaux sert effectivement à transférer des données et partager de l’information ; les 85 % restants sont consommés par des équipements en veille, ou à d’autres pertes de chaleur.

Que nous réserve, de ce point de vue énergétique, l’arrivée de la 5G ? Les avis divergent. La plupart des experts s’accordent à dire que la consommation d’énergie des réseaux 5G sera plus efficiente que les générations précédentes. Le PDG de Verizon, qui prêche évidemment pour sa paroisse, prétendait même, lors du Consumer Electronics Show, à Las Vegas en janvier, que « les équipements réseaux et terminaux 5G consommeront 10 % de l’énergie consommée par leurs équivalents 4G ». D’autres travaux de R&D mentionnent une diminution potentielle de 50 % (« What 5G Means for Energy », Chris Bronk, « Energy Realpolitik », 31 mai 2019).

Ce qui est certain, c’est que le cahier des charges du standard 5G impose des niveaux d’efficacité énergétique bien meilleurs que la 4G. Pour ne prendre qu’un seul exemple : la mise en veille plus fine des antennes 5G permettra de réduire par un facteur de 10 la consommation d’électricité en période creuse (soit 80 % du temps), par comparaison avec les systèmes actuels.

Evolution des usages

Mais si cette obligation figure au cahier des charges de la 5G, c’est avant tout pour des raisons économiques : les opérateurs ne veulent pas voir leur facture d’électricité exploser. On peut donc compter sur eux…

Une 5G moins polluante ? Pas si vite… Comme toute innovation technologique importante, la 5G ne remplace pas seulement le standard précédent (4G), elle change et influence le système dans lequel elle s’inscrit. Au-delà de la consommation du réseau, c’est également à l’évolution des usages que ce réseau supporte qu’il faut s’intéresser. »

 

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Sur cette question très complexe et très controversée, Cyril Le Mat, responsable data & IA dans une société spécialisée en ressources humaines, l’intelligence artificielle sert à humaniser le travail et non à le remplacer, dit-il dans une tribune au « Monde ».Un vision qui mérite attention mais peut être un peu idyllique car personne ne sait vraiment quelles seront les conséquences de l’IA notamment en matière d’emplois.

Tribune. Nous sommes aujourd’hui submergés d’articles, d’entretiens et de Tweet sur l’intelligence artificielle (IA) émanant de personnes déconnectées de la réalité technique, mais qui puisent sans vergogne dans un imaginaire de concurrence et de soumission afin de générer toujours plus d’émotion et de clics.

En tant qu’expert et praticien de l’IA en entreprise, ma volonté est ici d’éclairer sur les enjeux du développement de ces nouveaux outils, qui se révèlent plus humains qu’on ne pourrait le penser. Car la réalité est là : ce qu’on appelle l’intelligence artificielle n’est qu’une succession d’outils spécialisés, chacun consacré à l’optimisation d’une unique tâche répétitive. Exemple classique : l’imagerie médicale, où un algorithme va analyser pour un cancer précis des centaines d’images afin de proposer au médecin un diagnostic. Œuvre de l’humain, l’IA n’est rien de plus que ce que l’on décide d’y mettre.

 

L’IA permet avant tout d’automatiser des actions souvent répétitives, parfois ingrates, jusque-là opérées par des collaborateurs. Il faut en finir avec l’idée reçue qui remettrait aux mains des machines la majorité de l’activité humaine de l’entreprise. L’IA doit être abordée comme une opportunité technologique qui permet de dégager du temps au salarié et de l’aider à prendre des décisions. 

Le collaborateur va donc pouvoir se concentrer sur d’autres missions plus « humaines », où il aura plus de valeur ajoutée. Il pourra d’un côté se focaliser sur sa créativité, son innovation et son analyse ; de l’autre, se consacrer aux relations humaines, qu’elles soient internes ou externes à l’entreprise : par exemple, une infirmière pourra passer plus de temps avec ses patients. En cela, l’IA redonne du sens au travail, quête essentielle pour les jeunes générations.

 

Opaque dans son fonctionnement, l’IA est un outil qui nécessite une interaction par certains aspects similaire à celle entre humains. Sur ce point, les solutions connues du grand public sont encore loin de la maturité. En effet, les GAFA [Google, Apple, Facebook et Amazon] ont pour principal but de garder captifs leurs utilisateurs en ne leur fournissant ni outils de pilotage ni justification. Il faut pourtant s’assurer qu’humains et IA se comprennent tant sur les questions que sur les réponses ! La collaboration avec l’humain est un enjeu phare pour les solutions d’entreprise dont la progression va affecter positivement la réalité du travail. 

Ne soyons pas naïfs, des suppressions d’emplois causés par l’IA auront lieu. Mais la réalité sera loin des nombreuses prédictions de certains groupes de réflexion ou d’essayistes hors sol annonçant, selon les cas, la suppression de 30 % à 90 % des emplois actuels. Les humains sont loin d’avoir perdu leur place en entreprise. Avec le développement des solutions IA au travail, les salariés se tourneront vers des missions plus enrichissantes pour des carrières plus épanouissantes.

Numérique et handicap des personnes , un atout pour l’économie française ?

Numérique et  handicap des personnes , un atout  pour l’économie française ?

Par (Alain Assouline) , président du réseau des écoles WebForce3 (*), fondateur du programme Handi4Change ( point de vue dans  la Tribune)

 

« Un demi-million de personnes en situation de handicap sont sans emploi car, entre autres raisons, les dispositifs de formation ne sont pas adaptés. Pour elles, le taux de chômage est de 19%, soit deux fois plus que la moyenne nationale. Et leur période d’inactivité est plus longue : 824 jours de chômage en moyenne pour les personnes handicapées inactives, soit près de 200 jours de plus que pour l’ensemble de la population sans emploi[1]. Cette situation, chronique et aberrante, ajoute de l’exclusion économique et sociale au handicap. Peu visible, elle donne le sentiment de ne pas être une priorité politique, alors qu’elle relève d’une injustice grave entre actifs. Pourtant, plutôt que de céder au fatalisme, des opportunités existent pour enrayer ce phénomène.

La question de l’accès des personnes en situation de handicap à la formation et à l’emploi pose la question de leur pleine citoyenneté. Et plus largement du rapport au travail, rémunérateur, émancipateur et créateur de lien social. Même lorsqu’elles travaillent, elles occupent plus souvent un emploi d’ouvrier non qualifié et moins souvent de cadre, travaillent plus souvent à temps partiel et sont plus souvent en situation de sous-emploi[2]. En parallèle, le manque d’accès à la formation des personnes handicapées en France est criant dans les formations traditionnelles. Et pas toujours considéré à sa juste importance dans les formations émergentes qui vont façonner le tissu économique des années avenir.

Les personnes en situation de handicap pourraient pour beaucoup d’entre elles accompagner l’économie française dans sa transformation digitale. Car on a beau crier que le numérique détruit des emplois, la réalité est différente.

Le numérique crée des emplois, et pourrait en créer encore beaucoup plus. Loin de l’eldorado du codeur star vendant sa virtuosité au plus offrant, c’est toute l’économie, TPE, ETI, grands groupes et services publics, qui a besoin aujourd’hui de talents formés à des métiers du digital ou à des fonctions transverses dans ces métiers.

Ceux-ci sont bien plus variés et massifs qu’on veut le croire : développeurs bien sûr, mais aussi chefs de projet digital, techniciens cybersécurité, administrateurs de réseau, ou encore dans le marketing digital. Sans parler des experts analystes de données, blockchain ou intelligence artificielle… Ces fonctions seront demain dans toutes les entreprises. Certaines n’existent pas encore, d’autres existent mais ne sont pas formalisées ou n’obéissent pas à une nomenclature traditionnelle, et manquent de visibilité. Mais c’est une certitude : les entreprises du numérique de toutes tailles se plaignent de manque de main d’œuvre, de niveau Bac + 2 à Bac + 5. Sans parler de toutes les entreprises et services publics qui introduisent toujours plus de numérique dans leur fonctionnement.

Alors que Cédric O, secrétaire d’Etat chargé du Numérique, rappelait récemment que 80.000 emplois étaient à pourvoir en France dans les seuls métiers du numérique, on peut se demander comment le numérique n’a pas encore été l’objet de toutes les attentions pour résoudre le sous-emploi des personnes handicapées.

La France dispose de nombreux savoir-faire et parmi eux l’accompagnement des publics éloignés de l’emploi. Les initiatives pour les décrocheurs, chômeurs longue durée, personnes discriminées ou fragiles, se sont développées, ont été évaluées. Nombreuses sont celles qui ont prouvé leur efficacité. Avec un principe clef : l’adaptabilité.

Pour les personnes en situation de handicap, il est quelquefois difficile de se rendre sur le lieu de formation quand on est en fauteuil, difficile de suivre le rythme lorsqu’on a des troubles de l’attention, difficile de s’intégrer à un groupe quand on a des troubles du comportement.

La digitalisation des processus de formation offre de nombreuses opportunités permettant d’aménager les emplois du temps, de proposer des rediffusions, des exercices en ligne, des échanges avec des professeurs de grande qualité, de s’évaluer dans un groupe de niveau en temps réel… Autant d’outils qui peuvent être réinvestis afin de rendre possible la formation des personnes en situation de handicap ayant simplement besoin d’une gestion du temps et de modalités de formation différentes et adaptées.

Il existe enfin un saut intellectuel à franchir par des personnes en situation de handicap sur leur capacité à évoluer vers des emplois innovants, des emplois qui sont au cœur de l’évolution de l’entreprise de demain. Et en cela de lutter contre leurs croyances limitatives, quelles que soient l’origine de ces dernières. Et au reste de la société, d’y voir une opportunité rare de faire entrer dans l’entreprise toujours plus de diversité. Car embaucher ces personnes, c’est pallier le besoin de main d’œuvre, mais c’est aussi bénéficier de leurs compétences, de leur engagement souvent exceptionnel, de leur parcours et de leur regard singulier au sein du groupe. »

 

 

[1] D’après le bilan au 1er semestre 2018 du marché du travail des personnes handicapées par l’Agefiph

[2] Etude de la Dares, Ministère du Travail, 2015

Société: la domination par les algorithmes?

Société: la domination par les algorithmes?

 

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, fait une approche critique de la mainmise de grands de l’ internet sur la société. un danger évident d’autant que ces grandes sociétés sont exclusivement américaines ou chinoises. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux.  Il est toujours possible de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner. »

 

Robotisation : la fin du travail ?

 Robotisation : la fin du travail ?

 

Une réflexion intéressante sur le développement de la robotisation qui menace le travail traditionnel. Une menace inquiétante comme  lors de chaque grand progrès technique. Dans l’histoire se sont  posées les mêmes questions mais sans doute de manière moins brutale. .Reste que la tertiarisation de  l’économie témoigne cependant de besoins toujours nouveaux de l’humain en amont comme en aval de la production et de façon plus  générale dans la société. le problème est de savoir si les progrès de productivité permis par l’IA ne seront as plus destructeurs que la dynamique de création d’emploi.

 

« Les progrès réalisés ces cinq dernières années dans l’intelligence artificielle vont permettre de construire des robots, capables d’exécuter quasiment toutes les tâches humaines, menaçant des dizaines de millions d’emplois au cours de 30 prochaines années, s’accordent à prédire des scientifiques. « Nous approchons du moment où les machines pourront surpasser les humains dans presque toutes les tâches », a prévenu Moshe Vardi, directeur de l’Institute for Information Technology à l’Université Rice au Texas. « La société doit se pencher sur cette question dès maintenant car si des robots font presque tout ce que nous faisons comme travail, qu’allons nous faire », s’est-il interrogé samedi aux côtés d’autres experts lors de la conférence annuelle de l’American Society for the Advancement of Science (AAAS) réunie à Washington. Pour le scientifique qui n’exclue pas la fin du travail humain, « la question est de savoir si l’économie mondiale peut s’adapter à un taux de chômage de plus de 50 % ». Aucune profession n’est à l’abri, pas même les travailleurs du sexe, a-t-il lancé. L’automatisation et la robotisation ont déjà bouleversé le secteur industriel ces 40 dernières années, dopant la productivité au détriment de l’emploi. Le nombre de création de postes dans le secteur manufacturier a atteint son pic en 1980 aux Etats-Unis et n’a cessé depuis de diminuer, s’accompagnant d’une stagnation des revenus de la classe moyenne, a expliqué Moshe Vardi. Aujourd’hui on compte plus de 200.000 robots industriels dans le pays et leur nombre continue à augmenter. La recherche se concentre actuellement sur la capacité de raisonnement des machines et les progrès ces vingt dernières années sont spectaculaires, selon cet expert. Selon lui, 10% des emplois qui nécessitent de conduire un véhicule aux Etats-Unis pourraient disparaitre en raison de l’automatisation de la conduite d’ici vingt-cinq ans. »On a toutes les raisons de penser que les progrès des 25 prochaines années seront tout aussi impressionnants », a-t-il ajouté. Bart Selman, professeur de sciences informatiques à l’Université Cornell prévoit quant à lui que « dans les deux ou trois ans (à venir) des machines autonomes (…) feront leur entrée dans la société permettant entre autres la conduite automatisée de voitures et camions mais aussi de contrôler des drones de surveillance ». Cet expert a expliqué que des progrès très importants ont été faits depuis cinq ans notamment dans la vision et l’ouïe artificielles permettant à des robots de voir et d’entendre comme les humains. Le professeur Selman a indiqué que les investissements dans l’intelligence artificielle aux Etats-Unis ont été de loin les plus élevés en 2015 depuis la naissance de ce domaine de recherche il y a cinquante ans, citant Google, Facebook, Microsoft et Tesla, du milliardaire Elon Musk, soulignant que le Pentagone a demandé 19 milliards de dollars pour développer des systèmes d’armement intelligents.  « On peut donc s’interroger sur le niveau d’intelligence que ces robots pourront atteindre et si les humains ne risquent pas un jour de perdre le contrôle », a pointé Bart Selman. Ce qui est inquiétant dans ces nouveaux logiciels, s’accordent à dire les experts, c’est leur capacité à synthétiser les données et à exécuter des tâches complexes. L’astrophysicien britannique Stephen Hawking avait notamment mis en garde contre ce danger expliquant que « les humains sont limités par une évolution biologique lente ». « L’intelligence artificielle pourrait se développer d’elle-même à un rythme de plus en plus rapide », avait-il expliqué. Ces questions ont conduit les scientifiques à envisager l’établissement de règles éthiques pour encadrer le développement de l’intelligence artificielle ainsi que de programmes centrés sur la sécurité. Elon Musk a lancé en 2014 une initiative de 10 millions de dollars à cette fin, estimant que l’intelligence artificielle était « potentiellement plus dangereuse que le nucléaire ». En 2015, un groupe de personnalités de haut vol, dont Stephen Hawking, Elon Musk et Steve Wozniak, cofondateur d’Apple, avait publié une lettre ouverte plaidant pour « l’interdiction des armes autonomes ». Ils expliquaient que « si une grande puissance développait des armes dotées d’une intelligence artificielle autonome, cela entraînerait une course dangereuse de ce type d’armement ». Pour Wendel Wallach, un éthicien de l’Université Yale, ces dangers nécessitent une mobilisation de la communauté internationale. L’idée, a-t-il résumé samedi, « est de s’assurer que la technologie demeure un bon serviteur et ne devienne pas un maître dangereux ».

(LNT avec Afp)

Nouvelles technologies: Le risque de dérives anti démocratiques

 

Nouvelles technologies: Le risque de dérives anti démocratiques

Les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Une note sociétale est attribuée à chaque chinois par le pouvoir central.   Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les Chinois ont bâtis un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés  sans même qu’ils en soient très confiants. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers l’évolution des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas contrôlées de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

Sites Internet : des avis truqués

Sites Internet : des avis truqués  

 

Certains évaluateurs de sites prennent en compte le nombre et le contenu des avis des internautes. Le problème c’est que quantitativement et qualitativement ces avis souvent truqués. Chaque site a en effet intérêt à diffuser des avis plutôt favorables. Pour leur donner d’autant plus de crédibilité, on laisse passer quelques avis défavorables. En outre ces avis ne sont nullement représentatifs de la population des internautes. Dans 90 % des cas, ce sont des avis impulsifs, excessifs voire ridicules et-ou injurieux. Il suffit par exemple de se fier simplement à l’orthographe de ces internautes vindicatifs pour mesurer leur niveau culturel. Certains sites affichent un grand nombre d’avis pour montrer leur audience. Pour cela,  on privilégie l’évidence putassière  (Ah ça c’est bien vrai !) Ou au contraire la provocation  favorisant  des réactions contraires. Bref, la prise en compte des avis sur les sites constitue une vaste fumisterie, en tout cas une opération qui ne présente aucune pertinence en matière d’audience et de qualité. Ce que confirme certaine manière la direction générale de la concurrence (DGCCRF). On sait depuis longtemps que les commentaires et les avis des internautes sont largement bidonnés. Qu’il s’agisse d’avis concernant les produits et services ou de commentaires sur les informations des sites (c’est pourquoi le présent site ne diffuse de commentaires d’internautes, avis toujours intéressants mais dont la publication est relativement ambiguë).  La direction des de la concurrence a révélé un taux d’anomalie toujours très élevé de 35%. Ces pratiques commerciales trompeuses, observées par la DGCCRF depuis 2010, touchent tous les secteurs et notamment ceux de l’automobile, de l’électroménager, de l’habillement ou de l’hôtellerie. Certains professionnels rédigent eux-mêmes des avis, avantageux, en se faisant passer pour des consommateurs ou publient de faux avis, défavorables, sur leurs concurrents. D’autres ont recours à la modération pour supprimer, ou cacher des avis négatifs, relégués dans les dernières pages. Ces deux pratiques ont été observées plus particulièrement dans le secteur de l’hôtellerie, dans certains organismes de formation, mais également dans les services entre particuliers. Mais, depuis peu, une troisième pratique consistant à «mentir sur le processus de modération» a la faveur de nombreux sites Internet. Des fraudeurs affirmeraient ainsi avoir recours à des normes qui «fixent des conditions de vérification lorsque ce n’est pas le cas», selon Loïc Tanguy, un porte-parole de la DGCCRF. Parmi ces normes figure notamment la référence à la certification NF Z 74-501 qui permet de faire référence à une certification du processus de collecte, de modération et de restitution des avis. Une garantie utilisée «abusivement et de manière déloyale par de nombreux professionnels», toujours d’après le porte-parole de la DGCCRF. En d’autres mots, des sites s’auto-déclarent conformes aux normes imposées. En 2016, cinq professionnels auraient fait l’objet d’un avertissement pour des références abusives à la certification de leur avis d’après les résultats affichés par la direction de la répression des fraudes. Ces comportements trompeurs touchent non seulement les consommateurs, de plus en plus nombreux à se fier aux avis d’autres internautes, mais aussi les professionnels, qui doivent faire face à de la concurrence déloyale. D’après la DGCCRF, 74% des internautes auraient déjà renoncé à acheter un produit à cause de commentaires ou d’avis négatifs et 41% auraient déjà réalisé un achat spontané à la suite d’un avis positif. Des chiffres inquiétants au regard de la hausse des pratiques déloyales, qui encouragent des associations à fiabiliser le traitement des avis en ligne des consommateurs. C’est notamment le cas de l’Association française de normalisation (Afnor) qui a publié, en juillet 2013, la première norme volontaire pour lutter contre les faux avis des consommateurs. La norme Afnor ne comporte aucune obligation mais représente un gage éthique, devant garantir l’interdiction d’acheter des avis et l’identification de l’auteur pour le modérateur. D’autres stratégies de lutte contre les pratiques frauduleuses sont également mises en place et le cadre réglementaire a été renforcé pour mieux informer le consommateur. À compter du 1er janvier 2018, toute personne dont l’activité consiste à collecter, modérer ou diffuser des avis en ligne de consommateurs doit  assurer une information loyale, claire et transparente sur les modalités de publication et de traitement de ces avis. D’après la DGCCRF, l’objectif serait de «mieux équilibrer les relations entre plateformes et utilisateurs» pour renforcer «la confiance en l’information présentée»,.

Sites Internet : des avis truqués

Sites Internet : des avis truqués  

 

Certains évaluateurs de sites prennent en compte le nombre et le contenu des avis des internautes. Le problème c’est que quantitativement et qualitativement ces avis souvent truqués. Chaque site a en effet intérêt à diffuser des avis plutôt favorables. Pour leur donner d’autant plus de crédibilité, on laisse passer quelques avis défavorables. En outre ces avis ne sont nullement représentatifs de la population des internautes. Dans 90 % des cas, ce sont des avis impulsifs, excessifs voire ridicules et-ou injurieux. Il suffit par exemple de se fier simplement à l’orthographe de ces internautes vindicatifs pour mesurer leur niveau culturel. Certains sites affichent un grand nombre d’avis pour montrer leur audience. Pour cela,  on privilégie l’évidence putassière  (Ah ça c’est bien vrai !) Ou au contraire la provocation  favorisant  des réactions contraires. Bref, la prise en compte des avis sur les sites constitue une vaste fumisterie, en tout cas une opération qui ne présente aucune pertinence en matière d’audience et de qualité. Ce que confirme certaine manière la direction générale de la concurrence (DGCCRF). On sait depuis longtemps que les commentaires et les avis des internautes sont largement bidonnés. Qu’il s’agisse d’avis concernant les produits et services ou de commentaires sur les informations des sites (c’est pourquoi le présent site ne diffuse de commentaires d’internautes, avis toujours intéressants mais dont la publication est relativement ambiguë).  La direction des de la concurrence a révélé un taux d’anomalie toujours très élevé de 35%. Ces pratiques commerciales trompeuses, observées par la DGCCRF depuis 2010, touchent tous les secteurs et notamment ceux de l’automobile, de l’électroménager, de l’habillement ou de l’hôtellerie. Certains professionnels rédigent eux-mêmes des avis, avantageux, en se faisant passer pour des consommateurs ou publient de faux avis, défavorables, sur leurs concurrents. D’autres ont recours à la modération pour supprimer, ou cacher des avis négatifs, relégués dans les dernières pages. Ces deux pratiques ont été observées plus particulièrement dans le secteur de l’hôtellerie, dans certains organismes de formation, mais également dans les services entre particuliers. Mais, depuis peu, une troisième pratique consistant à «mentir sur le processus de modération» a la faveur de nombreux sites Internet. Des fraudeurs affirmeraient ainsi avoir recours à des normes qui «fixent des conditions de vérification lorsque ce n’est pas le cas», selon Loïc Tanguy, un porte-parole de la DGCCRF. Parmi ces normes figure notamment la référence à la certification NF Z 74-501 qui permet de faire référence à une certification du processus de collecte, de modération et de restitution des avis. Une garantie utilisée «abusivement et de manière déloyale par de nombreux professionnels», toujours d’après le porte-parole de la DGCCRF. En d’autres mots, des sites s’auto-déclarent conformes aux normes imposées. En 2016, cinq professionnels auraient fait l’objet d’un avertissement pour des références abusives à la certification de leur avis d’après les résultats affichés par la direction de la répression des fraudes. Ces comportements trompeurs touchent non seulement les consommateurs, de plus en plus nombreux à se fier aux avis d’autres internautes, mais aussi les professionnels, qui doivent faire face à de la concurrence déloyale. D’après la DGCCRF, 74% des internautes auraient déjà renoncé à acheter un produit à cause de commentaires ou d’avis négatifs et 41% auraient déjà réalisé un achat spontané à la suite d’un avis positif. Des chiffres inquiétants au regard de la hausse des pratiques déloyales, qui encouragent des associations à fiabiliser le traitement des avis en ligne des consommateurs. C’est notamment le cas de l’Association française de normalisation (Afnor) qui a publié, en juillet 2013, la première norme volontaire pour lutter contre les faux avis des consommateurs. La norme Afnor ne comporte aucune obligation mais représente un gage éthique, devant garantir l’interdiction d’acheter des avis et l’identification de l’auteur pour le modérateur. D’autres stratégies de lutte contre les pratiques frauduleuses sont également mises en place et le cadre réglementaire a été renforcé pour mieux informer le consommateur. À compter du 1er janvier 2018, toute personne dont l’activité consiste à collecter, modérer ou diffuser des avis en ligne de consommateurs doit  assurer une information loyale, claire et transparente sur les modalités de publication et de traitement de ces avis. D’après la DGCCRF, l’objectif serait de «mieux équilibrer les relations entre plateformes et utilisateurs» pour renforcer «la confiance en l’information présentée»,.

Un vrai ordinateur quantique : Pour quand ?

Un vrai ordinateur quantique : Pour quand ?

Passer l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient beaucoup de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Quelle compatibilité entre le numérique et l’écologie ?

Quelle compatibilité entre le numérique et l’écologie ?

 

le développement du numérique  est-il écologiquement compatible ? la réponse de  Daniel Sperling  l’élu en charge du sujet à Marseille.( interview La Tribune)

 

Lors du dernier Marseille City Life qui abordait le sujet de la Tech et du zéro carbone, vous avez rappelé que smart city n’égale pas forcément ville durable. Une idée qui est peu répandue…

 

 

 

Daniel Sperling

Il faut résoudre une double équation, celle de l’expansion et de la concentration urbaine qui engendrent une mosaïque de transitions : urbaine, numérique, énergétique, économique et sociétale. Autant de défis qui peuvent être relevés collectivement. Conservateur, le numérique l’est aussi au regard des enjeux environnementaux. Curieusement, le récit autour de la Smart City a postulé d’emblée qu’elle serait durable. Tel n’est pas du tout le cas aujourd’hui. D’une part, l’infrastructure physique du numérique, d’autre part, la collecte des données, leur traitement et leur stockage représentent des quantités d’énergie non seulement colossales, mais surtout en croissance constante et forte. Le numérique consomme bien plus d’énergie que le transport aérien et la croissance de sa consommation est à deux chiffres. La donnée est souvent qualifiée de nouvel or noir. Le fait est que nous avons pris au mot cette analogie avec le pétrole et avons une approche très 20e siècle du numérique dans la ville. La smart a capturé le green. L’écologie du numérique reste à construire et avec elle celle de la Smart City. Attelons-nous à la tâche.

Vous donniez un chiffre intéressant, c’est l’équivalent, en énergie du « coût du clic »…

En effet, 450 millions de tonnes de CO2 ont été émises par les entreprises du numérique dans les pays de l’OCDE depuis 2013. 4 %, c’est la part du numérique dans les émissions mondiales de CO2, en hausse de 50 % depuis 2013.

80 fois plus d’énergie est nécessaire à la production d’un gramme de smartphone que d’un gramme de voiture. À l’échelle mondiale, les usages numériques représentent deux fois l’empreinte environnementale de la France. Ces problématiques ne sont pas nouvelles. Si je peux dire, nous ne partons pas de zéro pour aller vers le zéro carbone.

Quels sont les projets smart city qui ont changé la physionomie de Marseille ?

Il y a eu beaucoup de projets dont Smartseille est l’un des derniers exemples, avec sa boucle à eau de mer. Quand CMA CGM annonce toute une série de mesures pour réduire son impact comme l’adoption du GNL et l’optimisation des routes, la réduction de la vitesse de ses navires, ça va dans le bon sens. Mais j’aime rappeler qu’il y a 20 ans, la cogénération par méthanisation et l’expérimentation d’épandage propre, qui a donné naissance à une forêt sur la route de Cassis, étaient précurseurs. C’est un clin d’œil à l’actualité où certains gros pollueurs font aujourd’hui des annonces de replantation d’arbres pour compenser leur bilan carbone. Les estimations les plus récentes considèrent que, chaque jour, un français émet autant de CO2 que ce qu’un arbre stocke en un an.

Existe-t-il une smart city universelle ?

La justification ultime du smart n’est pas de faire toujours plus. C’est de faire en sorte que l’on puisse se déplacer sans dégrader l’environnement pour remplir son programme d’activités quotidiennes à Los Angeles, Paris, Pékin ou Bogota, de faire accéder les villes indiennes à l’eau potable, de mettre fin à l’étalement urbain dans les pays occidentaux et d’électrifier sur un monde durable les mégalopoles africaines qui se développent sous nos yeux.

 

 

Alerte suppression Wanadoo (Orange)

Alerte suppression Wanadoo (Orange)

 

Wanadoo est une ancienne messagerie de France Télécom, une entreprise reprise par Orange. Orange qui a imposé sa messagerie tout en assurant la continuité de Wanadoo. Mais avec une certaine réticence au point maintenant d’organiser progressivement la fin de Wanadoo. On sait qu’en cas de perte d’un mot de passe de messagerie, il est possible de le récupérer ou den créer un autre  après demande au gestionnaire de cette messagerie. Ce que fait Orange pour les adresses Mel  « Orange » mais pas pour Wanadoo. Dans beaucoup de cas, les mots de passe sont enregistrés dans les ordinateurs. Il arrive que le disque dur tombe en panne et/ou  que toutes les données disparaissent ; Du coup les mots de passe avec. Or Orange se refuse à réactiver un nouveau mot de passe pour Wanadoo et en profite  pour supprimer le compte dont la gestion n’est consentie que gratuitement. Une curieuse conception de la politique commerciale. On comprend qu’une société fasse évoluer sa gamme de produits, en supprime certains, en créent d’autres mais la moindre des choses est d’aviser les clients avant de fermer brutalement le service. On se demande si Orange n’a pas conserver ses reflexes d’administration en considérant les abonnés comme des usagers captifs et non comme des clients. En tout cas, autant prévenir les vieux utilisateurs de Wanadoo, un jour le compte risque d’être fermé sans préavis ; et avec disparaissent évidemment toutes les adresse des correspondants ! Merci à Orange pour ce respect très approximatif des obligations commerciales. Sans parler des lignes téléphoniques physiques (qu’Orange est supposé entretenir) dont les fils tiennent de nombreux poteaux endommagés !

Mobiles-Smartphones : dangers des ondes électromagnétiques

Mobiles-Smartphones : dangers des ondes électromagnétiques

Certains smartphones seraient dangereux, ceux  mis en vente avant 2016 doivent être retirés de la circulation, ou au moins mis à jour, car ils émettent trop d’ondes et dépassent les normes les plus récentes quand ils sont portés dans la poche d’une veste, juge lundi l’agence sanitaire Anses. Les problèmes des ondes électro magnétiques c’st que leur nombre ne cessent de se développer avec les différents équipements de habitat ou de son environnement. Par ailleurs la technique 5 G est critiquée pour la puissance des ondes électromagnétiques. Extrait d’un article de L’INRS :

Pour une très large gamme d’intensités, les champs électromagnétiques peuvent avoir des effets, directs ou indirects, sur la plupart des systèmes physiologiques. Ils peuvent également perturber le fonctionnement des dispositifs médicaux actifs implantés ou non comme les pacemakers ou les pompes à insuline. La survenue de tels effets à court terme est réduite par le respect des valeurs limites et des bonnes pratiques de prévention.
Les articles R. 4453-3 et R. 4453-4 Code du travail définissent des valeurs seuils en fonction des effets sur la santé.

Les champs électriques statiques peuvent provoquer des réactions cutanées. En effet, ils induisent au niveau de la peau des personnes exposées une modification de la répartition des charges électriques. Cette modification est perceptible surtout au niveau des poils et des cheveux (seuil de perception : 10 kV/m, seuil de sensations désagréables : 25 kV/m).
Les champs magnétiques statiques peuvent être à l’origine :

  • d’une modification de l’électrocardiogramme (ECG) au-delà de 8 T ;
  • d’effets sensoriels (nausées, vertiges, goût métallique au-delà de 2 T).

Ces effets peuvent survenir en cas d’exposition à un champ magnétique statique de très grande intensité et lorsqu’on se déplace dans le champs.

Ces effets sont fonction de la densité de courant induit dans l’organisme humain (produit du champ électrique interne et de la conductivité du corps humain). L’unité de cette densité de courant induit est l’ampère par mètre carré (A/m2).

Effets dus aux courants induits en fonction de leur densité

  • Inférieure à 10 mA/m2 : pas d’effet connu sur la santé
  • De 10 à 100 mA/m2 : effets visuels et nerveux, soudure des os
  • De 100 à 1 000 mA/m2 : stimulation des tissus excitables
  • Supérieure à 1 000 mA/m2 : fibrillation

Cancérogénicité

Sur la base de plusieurs études épidémiologiques mettant en évidence un risque accru de leucémie chez des enfants vivant à proximité de lignes à haute tension, le CIRC a classé les champs électromagnétiques très basses fréquences (inférieur à 100 kHz) comme « peut-être cancérogènes pour l’homme » (groupe 2B).
En 2011, le CIRC a également classé les champs électromagnétiques radiofréquences comme « peut-être cancérogènes pour l’homme » (groupe 2B). Ce classement a été établi suite à quelques études épidémiologiques, sur la base d’un risque accru de gliome (un type de cancer malin du cerveau) associé à l’utilisation de téléphone sans fil.
À ce jour, il n’a pas été possible d’établir un lien de causalité entre les expositions incriminées et l’apparition de leucémies lors d’exposition à des champs magnétiques de très basses fréquences.

De manière générale, les études sont, à ce jour, insuffisantes pour conclure définitivement sur le caractère cancérogène ou non des champs électromagnétiques de basses ou hautes fréquences.

Troubles visuels

Des personnes soumises à un champ magnétique variable (autour d’une fréquence de 20 Hz et au-dessus d’un seuil d’intensité de 2 à 3 mT) ressentent parfois des troubles visuels, caractérisés par la perception de taches lumineuses appelées magnétophosphènes. A la fréquence du réseau électrique 50 Hz, ces troubles peuvent apparaitre à partir d’une exposition de la tête à une induction magnétique externe de 4 à 6 mT (source Icnirp 2010).

Hyperthermie due aux champs haute fréquence

Lors de l’exposition à des champs hautes fréquences (supérieur à 100 kHz), l’énergie absorbée par les tissus biologiques peut entraîner une augmentation de la température du corps entier (hyperthermie) ou d’une région. Cependant, le corps humain est capable, jusqu’à un certain point, de lutter contre cet échauffement par la thermorégulation. Cet échauffement des tissus se caractérise par le débit d’absorption spécifique (DAS) exprimé en W/kg.
L’exposition accidentelle à de fortes puissances peut entraîner des brûlures superficielles ou profondes.

Effet auditif dû aux impulsions hautes fréquences

Certaines personnes peuvent percevoir un effet auditif, spécifiques aux ondes pulsées hautes fréquences (de 0,3 à 6,5 GHz). Cette sensation est souvent décrite comme un « clic ». Les radars sont les principales sources susceptibles de générer cet effet.

Hypersensibilité électromagnétique et symptômes non spécifiques

Quel que soit le type de champ électromagnétique, certaines personnes se plaignent de symptômes non spécifiques tels qu’asthénie physique ou musculaire voire douleurs musculaires, fatigue, pertes de mémoire ou apathie contrastant avec une irritabilité anormale, troubles du sommeil, maux de tête, vertiges, malaise… L’inquiétude vis-à-vis de ce risque peut elle-même induire des effets sans rapport avec le risque réel.

 

Pour ces symptômes, non spécifiques et réversibles, il est difficile de préciser le rôle de l’exposition aux champs électromagnétiques, qu’elle soit environnementale ou professionnelle.

 

« A l’heure actuelle, les études scientifiques ne permettent pas d’établir un lien entre les symptômes ressentis par les personnes hypersensibles et une exposition prolongée ou non à des intensités de champs électromagnétiques rencontrés dans notre environnement quotidien.
De la même façon, il n’a pas été prouvé que les personnes électro sensibles réagissent de manière plus précoce que les personnes non sensibles à la présence de champs électromagnétiques.
En revanche, il est admis que les personnes hypersensibles aux champs électromagnétiques sont en état de réelle souffrance et celle-ci doit être prise en compte lors de traitements principalement centrés sur la prise en charge sanitaire des symptômes dans un cadre pluridisciplinaire.
Dans tous les cas, il est admis que cette prise en charge soit effectuée le plus tôt possible après apparition des premiers symptômes. »

Effets indirects

Les champs électromagnétiques peuvent être à l’origine d’effets indirects susceptibles de provoquer des dommages sur l’homme, d’être à l’origine d’un incident ou d’un accident, ou d’aggraver une situation de travail dangereuse.
Il peut s’agir :

  • du déclenchement d’une explosion ou d’un incendie du fait de l’apparition d’étincelles
  • d’un dysfonctionnement de systèmes comprenant des composants électroniques
  • de la projection d’objets ferromagnétiques en présence d’un champ statique puissant.

 

Les effets indirects spécifiques aux basses fréquences sont dus aux courants de contact qui apparaissent lorsqu’une personne touche un objet métallique isolé de la terre et se trouvant dans le champ. Les effets apparaissent à partir de certains seuils dépendant de leur fréquence.
L’ensemble des effets indirects de l’exposition aux champs électromagnétiques est précisément décrit dans le « Guide non contraignant de bonnes pratiques pour la mise en œuvre de la directive 2103/35/UE » vol 1.

Effets sur les implants médicaux

Les implants passifs (broches,plaques, vis ou stent par exemple), lorsqu’ils contiennent des matériaux conducteurs, peuvent être parcourus par des courants induits à l’origine d’échauffement des tissus en contact avec l’implant. Sous l’effet de champs magnétiques statiques intenses, le risque est alors le déplacement de l’implant par attraction lorsque l’implant est ferromagnétique.
Les implants actifs (stimulateur cardiaque, défibrillateur, stimulateurs neurologiques, valves neurologiques) peuvent subir des dysfonctionnements électriques et/ou électroniques (déprogrammation, reprogrammation, arrêt, stimulation ou inhibition inappropriés).

Les dispositifs médicaux actifs portés près du corps (pompe à insuline,…) peuvent aussi être le siège de dysfonctionnements lors de leur exposition à des champs électriques ou magnétiques dont l’intensité est parfois inférieure aux limites d’exposition fixées pour le public.

Pour ce qui concerne les enfants à naître, il apparaît de façon générale que l’exposition aux champs électromagnétiques aux niveaux les plus fréquemment rencontrés ne semble pas accroître le risque de mauvais développement du système nerveux ou d’hyperthermie.

 

En tout état de cause, la réglementation prévoit que lorsque, dans son emploi, la femme enceinte est exposée à des champs électromagnétiques, son exposition doit être maintenue à un niveau aussi faible qu’il est raisonnablement possible d’atteindre en tenant compte des recommandations de bonnes pratiques existantes, et dans tous les cas, à un niveau inférieur aux valeurs limites d’exposition du public aux champs électromagnétiques.

Dans son rapport, «l’Anses recommande que des mesures soient prises afin que les utilisateurs ne soient plus exposés à des DAS supérieurs à 2 W/kg, par exemple par le biais de mises à jour des logiciels des téléphones (ou) le rappel de téléphones». En attendant, l’Anses préconise de ne pas transporter ces appareils trop près du corps.


Pour parvenir à ces recommandations, l’Anses a tenu compte «des expositions potentiellement élevées lorsque les téléphones sont placés très près du corps» et «des incertitudes qui subsistent sur les éventuels effets sanitaires à long terme» des ondes émises par les téléphones. Outre les modèles d’avant 2016, il arrive que des téléphones «présentant des valeurs de DAS élevées lorsqu’ils sont placés près du corps (soient) encore mis sur le marché», rappelle l’Anses.

Développement de l’intelligence artificielle: la démocratisation par l’auto apprentissage ?

Développement de l’intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.

« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

 

Bientôt l’intelligence artificielle au niveau de l’humain ?

Bientôt l’intelligence artificielle au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

 

«Plates-formes et médias en ligne » : la rémunération des producteurs d’infos est justifiée.

«Plates-formes et médias en ligne » : la rémunération des producteurs d’infos est justifiée.

Dans une tribune au « Monde »  , Nicolas Mazzucchi, spécialiste en cyberstratégie, considère, qu’il n’est pas choquant que la plate-forme soit rémunérée comme fournisseur de service au profit du média traditionnel

Tribune.(extraits )

 

«  L’entrée en vigueur de la loi française sur les droits voisins de la presse, qui transpose la directive européenne sur les droits d’auteur, agite fortement le secteur de la presse et de l’information, au point que le président de la République s’est saisi de la question lors de son déplacement en Auvergne, le 4 octobre.

Loin de vouloir opposer les plates-formes gestionnaires de données comme Facebook, Google ou Twitter aux médias traditionnels dont les métiers sont radicalement différents, il appartient de saisir les enjeux cachés de ces droits, au-delà de la nécessaire rémunération du travail des journalistes.

La question économique de la répartition publicitaire entre plates-formes de données et sites internet des médias est centrale. Les plates-formes publient un aperçu et une illustration des articles, ainsi que le lien permettant de lire l’ensemble de l’article sur le site du média d’origine.

Il y a, par conséquent une répartition assez claire des rôles : la publicité sur la plate-forme – qui est au demeurant quasi inexistante en ce qui concerne les actualités – n’empêche pas celle sur le média d’origine, les deux pouvant être rémunérés pour la visite d’un seul et même utilisateur, sans que cela ne porte atteinte aux droits de l’auteur de l’article.

En un sens le média traditionnel est rémunéré pour le contenu de l’article et la plate-forme pour la mise à disposition du lien de consultation. La plate-forme agit comme une sorte de fournisseur de service au profit du média traditionnel. Que la plate-forme soit rémunérée pour la fourniture d’un tel service n’est pas choquant ; les journaux payent bien pour que leurs magazines soient distribués dans les kiosques physiques.

Les grandes plates-formes de gestion des données sont les sites les plus populaires en France, selon le classement Alexa (Google.com 1er, Google.fr 4e, Live.com 6e, Yahoo.com 7e, Facebook.com 9e, etc.) loin devant les sites des grands médias (lefigaro.fr 32e, lemonde.fr 44e, etc.). En outre, le trafic en ligne des médias en question provient essentiellement desdites plates-formes de gestion de données (32 % du trafic pour lemonde.fr et 45 % pour lefigaro.fr proviennent de Google). Il en résulte en France une redirection du trafic en ligne des plates-formes généralistes vers les médias. »

»

12345...12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol