Archive pour le Tag 'dangers'

Page 2 sur 3

Incendies estivaux : nouveaux dangers mondiaux

Incendies estivaux :  nouveaux dangers mondiaux

Comme l’a constaté le GIEC, les températures vont continuer de progresser de manière irréversible au-delà des es objectifs fixés. Le réchauffement va malheureusement dépasser les 1,5° centigrades ou même 2°. Une tendance structurelle qui va se traduire par de plus grandes sécheresses et mécaniquement par la montée du risque incendie. L’année 2021 l’illustre déjà. Le mois de juillet a en effet été le plus chaud jamais enregistré dans le monde d’après l’agence nationale océanique et atmosphérique de l’ONU. D’immenses incendies ont affecté le Canada, les États-Unis mais aussi l’Europe y compris la France

Comme pour les autres risques environnementaux, les politiques de prévention sont à la traîne. -La visite du président de la république dans le Var qui pour toute politique relativise en considérant que la France était moins affectée que d’autres ! La question des incendies devient un enjeu majeur non seulement pour ses conséquences environnementales mais aussi pour la sécurité. On peut s’étonner qu’aucun débat n’ait été encore programmé au Parlement pour examiner ce nouveau risque et  envisager  la politique de prévention correspondante. Par parenthèse, il conviendrait sans doute de revoir le rôle et la présence des sapeurs-pompiers volontaires locaux. La concentration de ce moyen dans le seul chef-lieu de département ou presque constituant une hérésie. Mais le problème des moyens de prévention et de traitement est évidemment plus large.

 

Des dangers potentiels de l’intelligence artificielle

 Des dangers potentiels de l’intelligence artificielle

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée

 

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

 

Élection présidentielle : les dangers qui guettent Macron (Julien Vaulpré)

Élection présidentielle : les dangers qui guettent Macron  (Julien Vaulpré)

 

Ex-conseiller de l’Elysée sous Nicolas Sarkozy, spécialiste de l’opinion, Julien Vaulpré est le directeur général de Taddeo. « Après un an d’épidémie, les Français sont dans un état de choc et de doute qui obscurcit leur jugement. C’est le flou qui caractérise l’opinion », analyse-t-il

(interview dans le journal l’Opinion.

Sur quoi va se jouer la fin du quinquennat d’Emmanuel Macron ?

La crise sanitaire n’est pas finie et nous ne connaissons pas la date de fin de cette pandémie, l’OMS parle d’ailleurs de 2024. Même si Emmanuel Macron souhaite passer à une autre étape, le pays va devoir continuer à vivre avec le virus avec, espérons-le, moins de restrictions. Ce qui signifie que politiquement, Emmanuel Macron ne sera pas débarrassé de la pandémie et il n’est pas improbable qu’elle soit encore présente lors de la campagne présidentielle. L’opinion publique sera très attentive à la façon dont les autres gouvernements européens font face à ces évènements et ses conséquences économiques. Le Président doit donc montrer que la France sort honorablement de la crise sanitaire et qu’elle est bien placée pour rebondir économiquement. Il est important pour lui qu’elle soit a minima dans la moyenne européenne sur ces deux plans.

Les confinements, en restreignant les contacts sociaux et échanges, notamment à la sphère familiale, produisent des auto-renforcements de groupe, accélérés par l’unique échappatoire des réseaux sociaux, déformant structurellement l’opinion vers les positions radicales, voire conspirationnistes

Quel sera, dans ce contexte, son défi ?

Il en a plusieurs. Même avec la vaccination, le virus ne sera pas totalement éradiqué. L’épidémie continue de circuler et ce qui la caractérise, c’est son imprévisibilité. Il doit ainsi impérativement parvenir à tenir le risque sanitaire à distance et à ne pas se faire rattraper par le virus de façon trop forte alors que, depuis plusieurs mois, il fait le choix courageux d’essayer de faire vivre les Français avec celui-ci. Ensuite, il doit remobiliser les pays. Le titre de la dernière note de conjoncture de l’Insee résume bien les choses : « reprise : si loin si proche ». Après un an d’épidémie, les Français sont dans un état de choc et de doute qui obscurcit leur jugement. C’est le flou qui caractérise l’opinion. Psychologiquement, les Français sont lassés par un an d’épidémie et de restrictions. Economiquement, certaines catégories et plusieurs secteurs sont considérablement affaiblis. Politiquement, le scepticisme atteint des records : les manquements de l’Etat, les difficiles vérités du gouvernement ont fini de saper la croyance en la parole publique déjà très affaiblie lors de l’entrée dans la crise. La confusion domine quant au présent et à l’avenir. Dans les prochains mois, le chef de l’Etat a un rôle décisif pour projeter le pays dans l’après, psychologiquement et économiquement, et dans cet après, il doit être très vigilant à éviter un trop grand morcellement de la société. La crise a multiplié les divisions entre les Français. Sa durée est devenue une machine à morceler une société déjà fracturée. La crise économique a exposé d’abord les plus fragiles et les précaires, dressant un mur entre les visibles et les invisibles. Elle a ouvert les tranchées entre secteurs professionnels, réveillant une passion de l’égalité et de la comparaison de l’essentiel et de l’inessentiel. Autre rouage de la machine, les confinements, en restreignant les contacts sociaux et échanges, notamment à la sphère familiale, produisent des auto-renforcements de groupe, accélérés par l’unique échappatoire des réseaux sociaux, déformant structurellement l’opinion vers les positions radicales, voire conspirationnistes.

Jusqu’où la crise sanitaire sans fin a-t-elle changé la donne pour lui ?

Le mandat d’Emmanuel Macron est particulièrement singulier, sa première année fut sidérante. Il est devenu Président en quelques instants, il maîtrise parfaitement sa communication, lance de nombreuses réformes emblématiques, exerce un contrôle total et efficace sur le dispositif gouvernemental avec peu de couacs et des oppositions figées. La crise des Gilets jaunes a mis en lumière que même avec Emmanuel Macron vainqueur, la France n’échappait pas la colère des classes moyennes et inférieures qui est le fait politique central de ces dernières années dans toutes les démocraties occidentales. Cette colère n’avait pas trouvé de débouché politique lors de l’élection présidentielle de 2017 mais elle s’est violemment exprimée à l’occasion de cette crise soulignant les points faibles du projet macroniste et la verticalité du pouvoir. La crise sanitaire a eu un autre effet : elle met à nu la faiblesse de l’Etat. C’est Emmanuel Macron qui pourrait dire aujourd’hui qu’il est à la tête d’un Etat en faillite. Cette crise aura révélé au grand jour les failles du modèle français : un problème de commandement collectif au sein de l’appareil d’Etat, un niveau de dépenses publiques parmi les plus élevés mais qui s’est avéré peu efficace et une bureaucratie qui a agi avec un zèle tout particulier. Avec dans l’ensemble une grande confusion et une question « où va l’argent ?», « où va le pognon de dingue ? » Enfin, d’un point de vue psychologique, cette crise a blessé l’orgueil de Français : les faiblesses de l’Etat, le fait de ne pas être un pays producteur de vaccin, les retards, même si au fond, ils ne sont pas si importants, auront marqué l’opinion. Ce sont autant d’éléments supplémentaires dans le climat général dont il doit tenir compte.

La pandémie a-t-elle emporté le reste du quinquennat ou le macronisme a-t-il gardé quelques fondamentaux ?

Au fond, la grille de lecture qui a présidé à son élection a immédiatement été datée : la libéralisation de l’économie, le pragmatisme, le gouvernement des experts, l’efficacité managériale, bref le programme de la troisième voie n’était plus dans l’air du temps et la crise des Gilets jaunes, en faisant surgir les perdants de la mondialisation, l’a mis à mal. Le macronisme est entré dans la crise affaibli mais comme elle a figé le paysage politique et que le Président n’est pas enfermé dans une idéologie, il a le choix du terrain. Parmi les promesses du macronisme, il y a le mouvement et la transformation. Ce sont deux thèmes qui sont certes très vastes mais qu’il va pouvoir investir et qualifier. Par ailleurs, je pense que la présidentialité d’Emmanuel Macron reste un atout important. Certes il est critiqué mais il conserve l’estime des Français, personne ne peut dire qu’il n’est pas au niveau.

Avec l’épisode de l’OPA à demi réussie concernant la liste LR en Paca, le Président veut faire la preuve que l’alliance entre lui et la droite est désormais inéluctable, les extrêmes d’aujourd’hui se rejoignant dans la détestation du libéralisme avec l’idée qu’il faut relocaliser la production dans le fameux «terroir qui ne ment pas»

A-t-il vraiment réussi à venir à bout du clivage droite-gauche ou celui-ci est-il en train de renaître ?

Emmanuel Macron s’est qualifié au second tour de l’élection présidentielle grâce aux voix de gauche et a nommé un Premier ministre issu de la droite. Il a ainsi pulvérisé le paysage politique. Par ailleurs, depuis son élection, il mène davantage une politique de centre droit que de centre gauche. La gauche est totalement morcelée et la droite extrêmement fragilisée. Le clivage droite-gauche semble totalement enseveli. Idéologiquement, la droite est en train de muter : dans toutes les grandes démocraties occidentales, les conservateurs jettent aux orties l’idéologie libérale héritée du reaganisme. Quant à la gauche, elle ne pèse plus que 25 % au premier tour de l’élection présidentielle alors qu’elle a besoin de se rapprocher des 45 % des voix pour espérer l’emporter. Historiquement, Emmanuel Macron vient de la gauche, et il est parvenu à incarner l’ancienne droite ordo-libérale, enlevant aux Républicains la thématique de la réforme et de la modernisation de l’économie. Avec l’épisode de l’OPA à demi réussie concernant la liste LR en Paca, le Président veut faire la preuve un an avant la présidentielle que l’alliance entre lui et la droite est désormais inéluctable, les extrêmes d’aujourd’hui se rejoignant dans la détestation du libéralisme avec l’idée qu’il faut relocaliser la production dans le fameux « terroir qui ne ment pas ». Un élément supplémentaire vient faire voler en éclats ce qu’il pouvait rester des anciennes appartenances idéologiques. Nous observons en effet un paradoxe puissant : jamais la France n’a été autant à droite (plus de 50 % des Français se déclarent de droite, revendiquant ainsi en réalité une appartenance qui recouvre des réalités différentes) et pourtant jamais la demande d’assistance et de protection n’a été si grande, jamais les Etats n’ont autant dépensé pour assurer la survie des plus pauvres, la protection des chômeurs, des artistes, des restaurateurs, des ouvriers, des patrons, et l’économie n’a jamais été aussi dirigiste et moins libérale. Donc pour répondre à votre question : oui, Emmanuel Macron est venu à bout de clivage droite-gauche tel qu’il existait.

A un an de la présidentielle, qui menace le plus le chef de l’Etat ?

Un rebond inattendu de la situation sanitaire est toujours possible ce qui ferait entrer le pays dans un état psychologique inconnu. Par ailleurs, il ne faut pas sous-estimer que cette période a inévitablement créé parmi les Français un ressentiment accumulé au cours de toutes ces semaines de restrictions et il est difficile de croire que cet état d’esprit n’aura pas de conséquence politique. Deux sujets sont également importants : ce sont les questions de sécurité et l’immigration sur lesquelles Emmanuel Macron est en difficulté structurelle depuis le début de son mandat. Un évènement ou une accumulation d’évènements liés à ces questions peuvent avoir un effet significatif dans la compétition électorale qui s’ouvre. Enfin, sur la forme, il doit être vigilant à apparaître sincère et la question écologique vient rappeler régulièrement une conviction qui peut sur certains thèmes évoluer un peu trop fortement.

2022 sera-t-elle une élection désenchantée ? Qu’en attendent les Français ?

A ce stade, les deux principaux candidats enregistrent tous les deux un niveau d’adhésion faible. Il n’y a pas d’enthousiasme autour d’Emmanuel Macron, ni de Marine Le Pen. Le risque c’est qu’en effet les Français n’attendent plus grand-chose de cette élection et s’éloignent du débat démocratique et électoral. Sur le fond je pense qu’après cette crise, après la colère sociale des Gilets jaunes, les Français sont lassés par l’idéologie de la liberté et de l’émancipation individuelle, qu’au fond, ils aspirent à refaire société et pour cela il faut leur redonner le chemin et le goût d’être des citoyens et non plus simplement des individus.

Les dangers d’une discrimination positive

Les dangers d’une discrimination positive

La proposition de la ministre Elisabeth Moreno revient à persuader certains jeunes que le pays les rejette au lieu d’assurer les conditions d’une égalité des chances, estime, dans une tribune au « Monde », le sociologue Tarik Yildiz. L’universalisme français constitue une réponse puissante aux phénomènes qui fracturent notre société

Tribune. Le 26 janvier, Elisabeth Moreno, ministre déléguée chargée de l’égalité entre les femmes et les hommes, de la diversité et de l’égalité des chances, a annoncé la création d’un index de la diversité. Si les détails ne sont pas encore exposés, il s’agit de proposer aux entreprises volontaires de mesurer la place qu’elles accordent aux « minorités » dans leur recrutement et leur gestion des ressources humaines, ce qui permettrait la mise en place d’« actions correctrices ».

Erigée en valeur, la « diversité » est évoquée non seulement par certains membres de l’exécutif, mais aussi par une grande partie du monde privé. Un contraste fort existe cependant entre l’emploi fréquent du mot et l’absence de définition partagée : s’agit-il de diversité des profils et des parcours ? Evoque-t-on la diversité sociale ?

En réalité, dans l’esprit de beaucoup de ceux qui brandissent cette notion comme étendard, il s’agit d’une définition qui repose aussi (surtout ?) sur des critères ethniques, comme le révèle la célèbre phrase de Delphine Ernotte prononcée en septembre 2015 : « On a une télévision d’hommes blancs de plus de 50 ans, et ça, il va falloir que ça change. »


La pudeur française à évoquer les questions ethniques s’effrite ainsi peu à peu : la généralisation de l’utilisation de termes faisant référence au « sang » et à la couleur des individus est relativement récente. Si l’intention est louable – permettre à chacun d’accéder à certains postes de manière à être représentatif de la société –, l’instauration d’une discrimination positive qui ne dit pas son nom comporte de nombreux dangers.

Racialisation du débat public

Tout d’abord, adopter la même grille de lecture que des individus racistes condamne à racialiser le débat public. Quelles que soient les conditions socio-économiques, certaines minorités seraient des victimes perpétuelles qu’il faudrait protéger, discriminer, soutenir…

Les discriminations, qu’elles soient positives ou négatives, assignent des individus dans des rôles prédéterminés qui les empêchent d’évoluer

Quelle est l’utilité de rabâcher à des jeunes qu’ils sont victimes de discriminations et qu’il faut donc trouver des voies d’accès au rabais pour accéder à certains postes ? Ces derniers intègrent ce discours et se persuadent que le pays les rejette, qu’ils n’ont aucune chance en passant par des voies classiques. De fait, l’autocensure et la haine sont favorisées.

Les dangers potentiels de l’intelligence artificielle

Les  dangers potentiels de l’intelligence artificielle

McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée(article de John McCormick dans le Wall Street Journal repris dans l’Opinion)

 

Le siège de l’entreprise allemande Bosch, à Stuttgart.

 

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la filiale de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du niveau des résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours le risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

Traduit à partir de la version originale en anglais

Grandes plates-formes numériques de distribution : des dangers potentiels

Grandes plates-formes numériques de distribution : des dangers potentiels

Nombre de produits de grandes plates-formes numériques internationales comme celle d’Amazon distribuent certains produits dangereux en tout cas non conforme aux normes. Rien que chez Amazon 4000 produits ont été considéré comme non conformes voire dangereux. Le problème c’est qu’il existe déjà peu de régulation concernant ces plates-formes encore moins de contrôle et de sanction. Tous les produits aux normes ou non sont vendus sans tenir compte forcément des conditions notamment sanitaires. Lorsqu’ils sont attaqués par des consommateurs, ils réapparaissent sur d’autres plates-formes concurrentes. Il est pour le moins contradictoire d’imposer des normes de plus en plus rigoureuses aux productions européennes et parallèlement de laisser librement entrer des marchandises sur les mêmes marchés sans label et sans régulation préalable. Il s’agit d’une autre problématique que celle de la taxe internationale qui vise les GAFA. Il ne s’agit pas seulement de les taxer en raison de la puissance de leur ingénierie parafiscale mais aussi de contrôler la nature de leur production en leur imposant les mêmes contraintes coproduction européennes. D’après le Bureau européen des unions de consommateurs (BEUC), sur 250 produits achetés en ligne, les deux tiers ne respectaient pas la législation européenne en matière de sécurité.

Le Bureau européen de consommateurs (BEUC) a alerté ce lundi sur la dangerosité des produits achetés en ligne, sur des sites comme Amazon, eBay, AliExpress ou encore Wish.

Le BEUC regroupe 45 organisations nationales de consommateurs indépendantes, présentes dans 32 pays. Parmi elles, six associations ont testé 250 produits de janvier 2019 à janvier 2020. Chargeurs USB, jouets pour enfants, détecteurs de fumée, cosmétiques … 18 types de produits ont été contrôlés. Résultats: les deux tiers ne respectent pas la législation européenne en termes de sécurité.

Des  tests montrent «que les achats en ligne ne sont pas aussi sécurisés que dans le monde hors-ligne, a commenté Monique Goyens, la directrice générale du Beuc, dans le communiquéLa raison est simple: les marchés ne parviennent pas à empêcher l’apparition de produits dangereux sur leurs sites».

«Les groupes de consommateurs ont signalé à plusieurs reprises les produits dangereux, après quoi les marchés ont supprimé la liste. Mais cela ne peut pas devenir un modus operandi pour assurer la sécurité des consommateurs, car des produits similaires réapparaissent», a-t-elle ajouté. L’association britannique Which?, l’un des six groupes à avoir mené cette enquête, a ainsi précisé dans son propre communiqué avoir alerté à plusieurs reprises sur la dangerosité de sièges auto pour enfants vendus sur eBay, entre autres. Which? assure avoir prévenu eBay en 2017 que ces sièges ne respectaient pas les normes européennes, après quoi ils avaient été retirés de la vente. Mais, en 2019, ils étaient de nouveau réapparus sur eBay.

En août 2019, des journalistes du Wall Street Journal ont également révélé que plus de 4000 produits présents sur la plateforme d’Amazon pouvaient être considérés comme dangereux ou non conformes. En réalité, ce sont les vendeurs tiers qui sont mis en cause car Amazon n’est pas responsable des produits vendus. Le site de e-commerce est toutefois en charge de la sélection des vendeurs qui doivent, eux, satisfaire à des critères de qualité. Le Wall Street Journal avait ainsi pris en exemple la mort d’un client du Missouri dans un accident de la route, alors qu’il portait un casque acheté sur Amazon. Casque qui était non conforme à la réglementation du ministère des transports des États-Unis. La cour de Philadelphie avait alors estimé que l’entreprise avait la «pleine capacité, à sa seule discrétion, de supprimer tous les produits dangereux de son site».

Pratiquement un an plus tôt, en décembre 2018, c’était la Direction générale de la concurrence (DGCCRF) qui avait publié une enquête sur les produits de Noël vendus en ligne. Sur 46 objets testés par la DGCCRF et vendus sur des plateformes en ligne comme Amazon, Cdiscount, eBay, Fnac.com ou encore Aliexpress, 75% étaient «non conformes» et 39 % représentaient un «danger pour les consommateurs». Les entreprises de e-commerce avaient alors été contactées par l’organisme afin qu’elles retirent ces produits dangereux.

«Il est temps que l’Union européenne rende les marchés en ligne responsables des produits dangereux vendus sur leurs sites, et que les autorités les placent sous un examen approfondi», a souligné Monique Goyens, la directrice générale du Beuc.

Retraites: une Conférence de financement des retraites pleine de dangers

Retraites: une Conférence de financement des retraites pleine de dangers 

 

Il est clair que la conférence de financement sur des retraites risque d’être assez délicate autant pour le pouvoir que pour les syndicats. D’abord il y a un manque de clarté quant aux contenus  actuels de la réforme d’autant que cette dernière ne cesse d’évoluer. Aucun exercice de financement ne peut être pertinent si au préalable la situation des coûts n’est pas évaluée. rien que pour  l’éducation nationale- si les promesses sont respectées- le coût du rattrapage salarial représentera 10 milliards par an . Mais un coût  qui sera imputé au budget général pas à celui des retraites. Il faudra aussi ajouter le coût de toutes les exemptions de situations particulières et des transitions relativement longues pour nombre de régimes spéciaux.

 

Le gouvernement devra notoirement bouger car les insuffisances de son projet ont largement été critiquées  par le conseil d’État qui a constaté le flou du contenu du projet tout autant que les approximations financières. En cas d’échec de la conférence de financement cela confirmera  l’étatisation complète du système. Les insuffisances de ce système feront retomber la responsabilité quasi totalement sur l’Etat. Mais les syndicats ne seront pas non plus dans une position confortable.

Il y a d’abord ceux  qui risquent de ne pas y participer, ce qui sans doute sera apprécié comme une fuite devant les responsabilités. Il y a ceux qui apporteront leurs contributions mais qui ne sont pas sûrs  les voir pris en compte. Ils pourraient donc être pris à revers par le gouvernement et rencontrer des difficultés à l’intérieur de leurs propres organisations. Pour s’en sortir, il faudra donc des fortes concessions de part et d’autre y compris du côté du patronat qui en s’enfermant dans sa position actuelle contribue à écroulement  d’une croissance déjà très faiblarde pour 2020 voire au-delà. Proposé par la CFDT et repris par le gouvernement, l’événement prévu à partir de jeudi doit permettre de rassurer sur l’équilibre du futur système. Mais une certaine confusion règne comme l’explique dimanche sur Europe 1 Dominique Corona, secrétaire général adjoint et négociateur des retraites du syndicat UNSA.

« C’est très inconfortable et très incommodant », estime-t-il concernant la situation. Vendredi, le Conseil d’Etat a d’ailleurs souligné ce climat d’incertitudes en critiquant la longue étude d’impact et les projections financières de la réforme.

« Il manque un certain nombre de données (…) qui nous permettraient d’y voir un petit peu plus clair », regrette Dominique Corona.  »Il y a d’un côté des concertations en cours avec des décision qui ne sont pas prises et de l’autre côté une conférences des financements qui va avoir lieu. Il va bien falloir qu’à un moment donné il y ait une intersection et que nous ayons des chiffres consolidés pour pouvoir travailler sereinement », abonde le syndicaliste.

Et d’énumérer les doutes encore existants : « Sur la pénibilité, rien n’est encore totalement tranché. Sur l’emploi des seniors, la concertation vient de s’achever. Nous attendons impatiemment maintenant ce que va faire le gouvernent. »Les  échanges doivent durer trois mois, jusqu’en avril.

Les dangers de la fuite en avant de la dépense publique par Jean-Yves Archer, économiste ( Tribune dans l’Opinion)

Les dangers de la fuite en  avant de la dépense publique par Jean-Yves Archer, économiste ( Tribune dans l’Opinion)

 

« Ce projet de loi de finances ne porte aucune ambition d’envergure en matière d’essor économique », estime Jean-Yves Archer.

« L’analyse du budget pour 2020 génère une séquence étoffée de déceptions. Il y a insidieusement une remise en cause de la politique de l’offre. Ce projet de loi de finances (PLF) ne porte, en effet, aucune ambition d’envergure en matière d’essor économique alors même qu’il inscrit une dépense en hausse de 0,7 % en volume. L’addiction perdure et nous sommes face à une brouillade de politique néokeynésienne élaborée sous la pression de la rue.

Donc on godille plus qu’on anticipe posément. La rectification de la trajectoire des finances publiques est un revers consistant, courtoisement souligné par le Haut Conseil des finances publiques.

A ceux qui estimeraient ce constat trop frontal, il suffit de rappeler que le déficit budgétaire est désormais estimé à 93 milliards d’euros soit 125 % des rentrées fiscales générées par l’impôt sur le revenu. Combien de temps pense-t-on réaliste de présenter une telle posture ? Par certains aspects, ce PLF aurait pu émaner des équipes qui pilotaient le quinquennat précédent.

Dépenser 399 milliards quand l’Etat n’a que 306 milliards de rentrées fiscales ne saurait caractériser une gestion pondérée et avisée. Et pourtant, il se trouve toujours et encore des zélateurs de la dépense publique qui se sont massivement ralliés à l’analyse d’Olivier Blanchard, ancien chef économiste du FMI.

Sa thèse est simple : les taux sont si bas qu’il serait dès lors réaliste d’augmenter l’endettement afin de financer des investissements publics dont la rentabilité sera supérieure au taux initial d’emprunt. Bien entendu, ces funambules le plus souvent habiles qui sont porteurs de nos impôts du futur se gardent de toute référence au montant total de la dette rapportée au PIB. Ledit PIB que les statisticiens ont récemment modifié en y incluant l’économie souterraine et même une quote-part du marché estimé des stupéfiants. Il est troublant de voir le silence des économistes d’Etat sur ce type de modifications substantielles d’un agrégat majeur. Il est vrai qu’ils dédient une large part de leur énergie à se positionner face au dernier livre de Piketty.

Le PLF 2020 confirme que la sphère publique se satisfait de la perspective d’être encore un peu plus tentaculaire comme l’avait démontré, il y a des décennies, l’éminent Bertrand de Jouvenel (Du pouvoir, 1945).

La dérive des gestions des agences et autres satellites en est une preuve régulièrement rapportée par la Cour des comptes.

Fort de ce constat, je maintiens ma préconisation consistant à se caler sur les bonnes pratiques suédoises qui ont su redéfinir le périmètre de l’action publique. Autrement dit qui ont laissé lettre morte l’esprit de certains rapports de France Stratégie.

Le ministre des Comptes publics a fait de son mieux avec un outillage centré sur le sempiternel rabot et n’a engagé aucune nouvelle méthode budgétaire pour juguler le trend haussier. Le ralentissement de la croissance désormais anticipé par le FMI et l’OCDE en 2020 risque de compliquer l’exécution de cette loi de finances.

En cas de retournement conjoncturel marqué, notre pays aura des voies d’action limitées et risque de plonger dans un endettement accru.

…. »

Mobiles-Smartphones : dangers des ondes électromagnétiques

Mobiles-Smartphones : dangers des ondes électromagnétiques

Certains smartphones seraient dangereux, ceux  mis en vente avant 2016 doivent être retirés de la circulation, ou au moins mis à jour, car ils émettent trop d’ondes et dépassent les normes les plus récentes quand ils sont portés dans la poche d’une veste, juge lundi l’agence sanitaire Anses. Les problèmes des ondes électro magnétiques c’st que leur nombre ne cessent de se développer avec les différents équipements de habitat ou de son environnement. Par ailleurs la technique 5 G est critiquée pour la puissance des ondes électromagnétiques. Extrait d’un article de L’INRS :

Pour une très large gamme d’intensités, les champs électromagnétiques peuvent avoir des effets, directs ou indirects, sur la plupart des systèmes physiologiques. Ils peuvent également perturber le fonctionnement des dispositifs médicaux actifs implantés ou non comme les pacemakers ou les pompes à insuline. La survenue de tels effets à court terme est réduite par le respect des valeurs limites et des bonnes pratiques de prévention.
Les articles R. 4453-3 et R. 4453-4 Code du travail définissent des valeurs seuils en fonction des effets sur la santé.

Les champs électriques statiques peuvent provoquer des réactions cutanées. En effet, ils induisent au niveau de la peau des personnes exposées une modification de la répartition des charges électriques. Cette modification est perceptible surtout au niveau des poils et des cheveux (seuil de perception : 10 kV/m, seuil de sensations désagréables : 25 kV/m).
Les champs magnétiques statiques peuvent être à l’origine :

  • d’une modification de l’électrocardiogramme (ECG) au-delà de 8 T ;
  • d’effets sensoriels (nausées, vertiges, goût métallique au-delà de 2 T).

Ces effets peuvent survenir en cas d’exposition à un champ magnétique statique de très grande intensité et lorsqu’on se déplace dans le champs.

Ces effets sont fonction de la densité de courant induit dans l’organisme humain (produit du champ électrique interne et de la conductivité du corps humain). L’unité de cette densité de courant induit est l’ampère par mètre carré (A/m2).

Effets dus aux courants induits en fonction de leur densité

  • Inférieure à 10 mA/m2 : pas d’effet connu sur la santé
  • De 10 à 100 mA/m2 : effets visuels et nerveux, soudure des os
  • De 100 à 1 000 mA/m2 : stimulation des tissus excitables
  • Supérieure à 1 000 mA/m2 : fibrillation

Cancérogénicité

Sur la base de plusieurs études épidémiologiques mettant en évidence un risque accru de leucémie chez des enfants vivant à proximité de lignes à haute tension, le CIRC a classé les champs électromagnétiques très basses fréquences (inférieur à 100 kHz) comme « peut-être cancérogènes pour l’homme » (groupe 2B).
En 2011, le CIRC a également classé les champs électromagnétiques radiofréquences comme « peut-être cancérogènes pour l’homme » (groupe 2B). Ce classement a été établi suite à quelques études épidémiologiques, sur la base d’un risque accru de gliome (un type de cancer malin du cerveau) associé à l’utilisation de téléphone sans fil.
À ce jour, il n’a pas été possible d’établir un lien de causalité entre les expositions incriminées et l’apparition de leucémies lors d’exposition à des champs magnétiques de très basses fréquences.

De manière générale, les études sont, à ce jour, insuffisantes pour conclure définitivement sur le caractère cancérogène ou non des champs électromagnétiques de basses ou hautes fréquences.

Troubles visuels

Des personnes soumises à un champ magnétique variable (autour d’une fréquence de 20 Hz et au-dessus d’un seuil d’intensité de 2 à 3 mT) ressentent parfois des troubles visuels, caractérisés par la perception de taches lumineuses appelées magnétophosphènes. A la fréquence du réseau électrique 50 Hz, ces troubles peuvent apparaitre à partir d’une exposition de la tête à une induction magnétique externe de 4 à 6 mT (source Icnirp 2010).

Hyperthermie due aux champs haute fréquence

Lors de l’exposition à des champs hautes fréquences (supérieur à 100 kHz), l’énergie absorbée par les tissus biologiques peut entraîner une augmentation de la température du corps entier (hyperthermie) ou d’une région. Cependant, le corps humain est capable, jusqu’à un certain point, de lutter contre cet échauffement par la thermorégulation. Cet échauffement des tissus se caractérise par le débit d’absorption spécifique (DAS) exprimé en W/kg.
L’exposition accidentelle à de fortes puissances peut entraîner des brûlures superficielles ou profondes.

Effet auditif dû aux impulsions hautes fréquences

Certaines personnes peuvent percevoir un effet auditif, spécifiques aux ondes pulsées hautes fréquences (de 0,3 à 6,5 GHz). Cette sensation est souvent décrite comme un « clic ». Les radars sont les principales sources susceptibles de générer cet effet.

Hypersensibilité électromagnétique et symptômes non spécifiques

Quel que soit le type de champ électromagnétique, certaines personnes se plaignent de symptômes non spécifiques tels qu’asthénie physique ou musculaire voire douleurs musculaires, fatigue, pertes de mémoire ou apathie contrastant avec une irritabilité anormale, troubles du sommeil, maux de tête, vertiges, malaise… L’inquiétude vis-à-vis de ce risque peut elle-même induire des effets sans rapport avec le risque réel.

 

Pour ces symptômes, non spécifiques et réversibles, il est difficile de préciser le rôle de l’exposition aux champs électromagnétiques, qu’elle soit environnementale ou professionnelle.

 

« A l’heure actuelle, les études scientifiques ne permettent pas d’établir un lien entre les symptômes ressentis par les personnes hypersensibles et une exposition prolongée ou non à des intensités de champs électromagnétiques rencontrés dans notre environnement quotidien.
De la même façon, il n’a pas été prouvé que les personnes électro sensibles réagissent de manière plus précoce que les personnes non sensibles à la présence de champs électromagnétiques.
En revanche, il est admis que les personnes hypersensibles aux champs électromagnétiques sont en état de réelle souffrance et celle-ci doit être prise en compte lors de traitements principalement centrés sur la prise en charge sanitaire des symptômes dans un cadre pluridisciplinaire.
Dans tous les cas, il est admis que cette prise en charge soit effectuée le plus tôt possible après apparition des premiers symptômes. »

Effets indirects

Les champs électromagnétiques peuvent être à l’origine d’effets indirects susceptibles de provoquer des dommages sur l’homme, d’être à l’origine d’un incident ou d’un accident, ou d’aggraver une situation de travail dangereuse.
Il peut s’agir :

  • du déclenchement d’une explosion ou d’un incendie du fait de l’apparition d’étincelles
  • d’un dysfonctionnement de systèmes comprenant des composants électroniques
  • de la projection d’objets ferromagnétiques en présence d’un champ statique puissant.

 

Les effets indirects spécifiques aux basses fréquences sont dus aux courants de contact qui apparaissent lorsqu’une personne touche un objet métallique isolé de la terre et se trouvant dans le champ. Les effets apparaissent à partir de certains seuils dépendant de leur fréquence.
L’ensemble des effets indirects de l’exposition aux champs électromagnétiques est précisément décrit dans le « Guide non contraignant de bonnes pratiques pour la mise en œuvre de la directive 2103/35/UE » vol 1.

Effets sur les implants médicaux

Les implants passifs (broches,plaques, vis ou stent par exemple), lorsqu’ils contiennent des matériaux conducteurs, peuvent être parcourus par des courants induits à l’origine d’échauffement des tissus en contact avec l’implant. Sous l’effet de champs magnétiques statiques intenses, le risque est alors le déplacement de l’implant par attraction lorsque l’implant est ferromagnétique.
Les implants actifs (stimulateur cardiaque, défibrillateur, stimulateurs neurologiques, valves neurologiques) peuvent subir des dysfonctionnements électriques et/ou électroniques (déprogrammation, reprogrammation, arrêt, stimulation ou inhibition inappropriés).

Les dispositifs médicaux actifs portés près du corps (pompe à insuline,…) peuvent aussi être le siège de dysfonctionnements lors de leur exposition à des champs électriques ou magnétiques dont l’intensité est parfois inférieure aux limites d’exposition fixées pour le public.

Pour ce qui concerne les enfants à naître, il apparaît de façon générale que l’exposition aux champs électromagnétiques aux niveaux les plus fréquemment rencontrés ne semble pas accroître le risque de mauvais développement du système nerveux ou d’hyperthermie.

 

En tout état de cause, la réglementation prévoit que lorsque, dans son emploi, la femme enceinte est exposée à des champs électromagnétiques, son exposition doit être maintenue à un niveau aussi faible qu’il est raisonnablement possible d’atteindre en tenant compte des recommandations de bonnes pratiques existantes, et dans tous les cas, à un niveau inférieur aux valeurs limites d’exposition du public aux champs électromagnétiques.

Dans son rapport, «l’Anses recommande que des mesures soient prises afin que les utilisateurs ne soient plus exposés à des DAS supérieurs à 2 W/kg, par exemple par le biais de mises à jour des logiciels des téléphones (ou) le rappel de téléphones». En attendant, l’Anses préconise de ne pas transporter ces appareils trop près du corps.


Pour parvenir à ces recommandations, l’Anses a tenu compte «des expositions potentiellement élevées lorsque les téléphones sont placés très près du corps» et «des incertitudes qui subsistent sur les éventuels effets sanitaires à long terme» des ondes émises par les téléphones. Outre les modèles d’avant 2016, il arrive que des téléphones «présentant des valeurs de DAS élevées lorsqu’ils sont placés près du corps (soient) encore mis sur le marché», rappelle l’Anses.

Smartphones : dangers des ondes électromagnétiques

Smartphones : dangers des ondes électromagnétiques

Certains smartphones seraient dangereux, ceux  mis en vente avant 2016 doivent être retirés de la circulation, ou au moins mis à jour, car ils émettent trop d’ondes et dépassent les normes les plus récentes quand ils sont portés dans la poche d’une veste, juge lundi l’agence sanitaire Anses. Les problèmes des ondes électro magnétiques c’st que leur nombre ne cessent de se développer avec les différents équipements de habitat ou de son environnement. Par ailleurs la technique 5 G est critiquée pour la puissance des ondes électromagnétiques. Extrait d’un article de L’INRS :

Pour une très large gamme d’intensités, les champs électromagnétiques peuvent avoir des effets, directs ou indirects, sur la plupart des systèmes physiologiques. Ils peuvent également perturber le fonctionnement des dispositifs médicaux actifs implantés ou non comme les pacemakers ou les pompes à insuline. La survenue de tels effets à court terme est réduite par le respect des valeurs limites et des bonnes pratiques de prévention.
Les articles R. 4453-3 et R. 4453-4 Code du travail définissent des valeurs seuils en fonction des effets sur la santé.

Les champs électriques statiques peuvent provoquer des réactions cutanées. En effet, ils induisent au niveau de la peau des personnes exposées une modification de la répartition des charges électriques. Cette modification est perceptible surtout au niveau des poils et des cheveux (seuil de perception : 10 kV/m, seuil de sensations désagréables : 25 kV/m).
Les champs magnétiques statiques peuvent être à l’origine :

  • d’une modification de l’électrocardiogramme (ECG) au-delà de 8 T ;
  • d’effets sensoriels (nausées, vertiges, goût métallique au-delà de 2 T).

Ces effets peuvent survenir en cas d’exposition à un champ magnétique statique de très grande intensité et lorsqu’on se déplace dans le champs.

Ces effets sont fonction de la densité de courant induit dans l’organisme humain (produit du champ électrique interne et de la conductivité du corps humain). L’unité de cette densité de courant induit est l’ampère par mètre carré (A/m2).

Effets dus aux courants induits en fonction de leur densité

  • Inférieure à 10 mA/m2 : pas d’effet connu sur la santé
  • De 10 à 100 mA/m2 : effets visuels et nerveux, soudure des os
  • De 100 à 1 000 mA/m2 : stimulation des tissus excitables
  • Supérieure à 1 000 mA/m2 : fibrillation

Cancérogénicité

Sur la base de plusieurs études épidémiologiques mettant en évidence un risque accru de leucémie chez des enfants vivant à proximité de lignes à haute tension, le CIRC a classé les champs électromagnétiques très basses fréquences (inférieur à 100 kHz) comme « peut-être cancérogènes pour l’homme » (groupe 2B).
En 2011, le CIRC a également classé les champs électromagnétiques radiofréquences comme « peut-être cancérogènes pour l’homme » (groupe 2B). Ce classement a été établi suite à quelques études épidémiologiques, sur la base d’un risque accru de gliome (un type de cancer malin du cerveau) associé à l’utilisation de téléphone sans fil.
À ce jour, il n’a pas été possible d’établir un lien de causalité entre les expositions incriminées et l’apparition de leucémies lors d’exposition à des champs magnétiques de très basses fréquences.

De manière générale, les études sont, à ce jour, insuffisantes pour conclure définitivement sur le caractère cancérogène ou non des champs électromagnétiques de basses ou hautes fréquences.

Troubles visuels

Des personnes soumises à un champ magnétique variable (autour d’une fréquence de 20 Hz et au-dessus d’un seuil d’intensité de 2 à 3 mT) ressentent parfois des troubles visuels, caractérisés par la perception de taches lumineuses appelées magnétophosphènes. A la fréquence du réseau électrique 50 Hz, ces troubles peuvent apparaitre à partir d’une exposition de la tête à une induction magnétique externe de 4 à 6 mT (source Icnirp 2010).

Hyperthermie due aux champs haute fréquence

Lors de l’exposition à des champs hautes fréquences (supérieur à 100 kHz), l’énergie absorbée par les tissus biologiques peut entraîner une augmentation de la température du corps entier (hyperthermie) ou d’une région. Cependant, le corps humain est capable, jusqu’à un certain point, de lutter contre cet échauffement par la thermorégulation. Cet échauffement des tissus se caractérise par le débit d’absorption spécifique (DAS) exprimé en W/kg.
L’exposition accidentelle à de fortes puissances peut entraîner des brûlures superficielles ou profondes.

Effet auditif dû aux impulsions hautes fréquences

Certaines personnes peuvent percevoir un effet auditif, spécifiques aux ondes pulsées hautes fréquences (de 0,3 à 6,5 GHz). Cette sensation est souvent décrite comme un « clic ». Les radars sont les principales sources susceptibles de générer cet effet.

Hypersensibilité électromagnétique et symptômes non spécifiques

Quel que soit le type de champ électromagnétique, certaines personnes se plaignent de symptômes non spécifiques tels qu’asthénie physique ou musculaire voire douleurs musculaires, fatigue, pertes de mémoire ou apathie contrastant avec une irritabilité anormale, troubles du sommeil, maux de tête, vertiges, malaise… L’inquiétude vis-à-vis de ce risque peut elle-même induire des effets sans rapport avec le risque réel.

 

Pour ces symptômes, non spécifiques et réversibles, il est difficile de préciser le rôle de l’exposition aux champs électromagnétiques, qu’elle soit environnementale ou professionnelle.

 

« A l’heure actuelle, les études scientifiques ne permettent pas d’établir un lien entre les symptômes ressentis par les personnes hypersensibles et une exposition prolongée ou non à des intensités de champs électromagnétiques rencontrés dans notre environnement quotidien.
De la même façon, il n’a pas été prouvé que les personnes électro sensibles réagissent de manière plus précoce que les personnes non sensibles à la présence de champs électromagnétiques.
En revanche, il est admis que les personnes hypersensibles aux champs électromagnétiques sont en état de réelle souffrance et celle-ci doit être prise en compte lors de traitements principalement centrés sur la prise en charge sanitaire des symptômes dans un cadre pluridisciplinaire.
Dans tous les cas, il est admis que cette prise en charge soit effectuée le plus tôt possible après apparition des premiers symptômes. »

Effets indirects

Les champs électromagnétiques peuvent être à l’origine d’effets indirects susceptibles de provoquer des dommages sur l’homme, d’être à l’origine d’un incident ou d’un accident, ou d’aggraver une situation de travail dangereuse.
Il peut s’agir :

  • du déclenchement d’une explosion ou d’un incendie du fait de l’apparition d’étincelles
  • d’un dysfonctionnement de systèmes comprenant des composants électroniques
  • de la projection d’objets ferromagnétiques en présence d’un champ statique puissant.

 

Les effets indirects spécifiques aux basses fréquences sont dus aux courants de contact qui apparaissent lorsqu’une personne touche un objet métallique isolé de la terre et se trouvant dans le champ. Les effets apparaissent à partir de certains seuils dépendant de leur fréquence.
L’ensemble des effets indirects de l’exposition aux champs électromagnétiques est précisément décrit dans le « Guide non contraignant de bonnes pratiques pour la mise en œuvre de la directive 2103/35/UE » vol 1.

Effets sur les implants médicaux

Les implants passifs (broches,plaques, vis ou stent par exemple), lorsqu’ils contiennent des matériaux conducteurs, peuvent être parcourus par des courants induits à l’origine d’échauffement des tissus en contact avec l’implant. Sous l’effet de champs magnétiques statiques intenses, le risque est alors le déplacement de l’implant par attraction lorsque l’implant est ferromagnétique.
Les implants actifs (stimulateur cardiaque, défibrillateur, stimulateurs neurologiques, valves neurologiques) peuvent subir des dysfonctionnements électriques et/ou électroniques (déprogrammation, reprogrammation, arrêt, stimulation ou inhibition inappropriés).

Les dispositifs médicaux actifs portés près du corps (pompe à insuline,…) peuvent aussi être le siège de dysfonctionnements lors de leur exposition à des champs électriques ou magnétiques dont l’intensité est parfois inférieure aux limites d’exposition fixées pour le public.

Pour ce qui concerne les enfants à naître, il apparaît de façon générale que l’exposition aux champs électromagnétiques aux niveaux les plus fréquemment rencontrés ne semble pas accroître le risque de mauvais développement du système nerveux ou d’hyperthermie.

 

En tout état de cause, la réglementation prévoit que lorsque, dans son emploi, la femme enceinte est exposée à des champs électromagnétiques, son exposition doit être maintenue à un niveau aussi faible qu’il est raisonnablement possible d’atteindre en tenant compte des recommandations de bonnes pratiques existantes, et dans tous les cas, à un niveau inférieur aux valeurs limites d’exposition du public aux champs électromagnétiques.

Dans son rapport, «l’Anses recommande que des mesures soient prises afin que les utilisateurs ne soient plus exposés à des DAS supérieurs à 2 W/kg, par exemple par le biais de mises à jour des logiciels des téléphones (ou) le rappel de téléphones». En attendant, l’Anses préconise de ne pas transporter ces appareils trop près du corps.

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Dangers des ponts en France … aussi des autres infrastructures

Danger  des ponts en France … aussi des autres infrastructures

À l’occasion de la manifestation de souvenir concernant l’écroulement du pont de Gênes en Italie, un  sénateur centriste lance un cri d’alarme sur l’état des ponts français dont 10 % seraient dangereux. Il faudrait ajouter que d’une façon générale les infrastructures routières (comme les infrastructures ferroviaires d’ailleurs) se sont particulièrement dégradées depuis 10 ou 15 ans. La chance de la France, c’est que le pays n’a pas connu de forts gels depuis plusieurs années donc de dégel qui sont mortifères pour les routes. L’ensemble des infrastructures routières sont dans un état très critique notamment certaines routes dites de secondaires qu’on répare depuis des années avec des rustines. Pour les ponts, Hervé Maurey, sénateur centriste de l’Eure, président de la mission d’information sur la sécurité des ponts,

« À peu près 10% de ces ponts, soit 25 000 ponts qui sont en mauvais état », a-t-il affirmé. La situation est encore plus inquiétante lorsque les ponts sont gérés par les communes ou intercommunalités, plutôt que par l’État. (Interview Franceinfo)

 

Quel constat global dressez-vous, alors que les résultats d’une enquête du Sénat seront bientôt publiés ?

Hervé Maurey : Le premier constat, c’est le fait que l’on ne sait même pas exactement combien il y a de ponts en France. C’est assez révélateur de la méconnaissance de l’état de notre patrimoine. Les ponts ne sont pas dans notre culture un élément de patrimoine. Que ce soit l’État, les départements ou a fortiori les communes, il n’y a jamais eu une approche patrimoniale qui consiste à savoir combien de ponts on a, dans quel état ils sont, et de programmer un entretien ou une restauration.

On arrive simplement à évaluer le nombre de ponts : à peu près entre 200 000 et 250 000. On est arrivé à la conclusion qu’il y avait à peu près 10% de ces ponts (…) qui sont en mauvais état. 7% des ponts qui appartiennent à l’État risquent de s’effondrer, alors que ce sont les mieux entretenus. La situation est bien plus inquiétante concernant les 100 000 ponts qui relèvent des communes ou des intercommunalités. Elles n’ont pas l’ingénierie, les moyens humains et les moyens financiers d’assurer une surveillance et une remise à niveau quand c’est nécessaire.

Qu’est-ce que vous préconisez pour y remédier ?

On préconise que l’État mette les moyens nécessaires, c’est-à-dire qu’il mette en place un véritable plan Marshall sur son réseau. Aujourd’hui, il consacre 45 millions d’euros par an à l’entretien des ponts qui relèvent de l’État, mais l’État considère qu’il faudrait vraisemblablement mettre près du triple, c’est-à-dire près de 120 millions.

On préconise aussi la mise en place d’un fond spécial destiné aux collectivités locales pour qu’elles dressent un constat. Cela coûte très cher parce qu’un diagnostic d’un pont simple, c’est au minimum 5 000 euros. En Normandie, sur mon territoire, il y a une communauté de communes qui a compté ses ponts et il y en a 80. Cela veut dire qu’il faut mettre sur la table 400 000 euros pour faire un simple diagnostic. Ensuite, les travaux sont souvent très importants. Pour un pont de petite envergure, cela peut très vite atteindre 500 000, voire un million d’euros.

Vous imaginiez un tel sous-investissement au moment de débuter cette enquête sur les ponts en France ?

Non, c’est vrai qu’on a été extrêmement surpris, par l’ignorance du nombre de ponts et par celle de leur état. Plus on tarde, plus la situation sera préoccupante. On sait très bien que si on n’augmente pas les crédits dans dix ans, il y aura deux fois plus de ponts dangereux. C’est une évolution naturelle. Et plus on tarde, plus il faudra mettre beaucoup d’argent pour se mettre à niveau (…) C’est à l’État de remettre en l’état son propre réseau et d’aider les communes qui n’ont pas la capacité financière de le faire seules. Je sais que la situation budgétaire est compliquée mais je crois qu’on ne peut pas faire d’économies sur la sécurité de nos compatriotes.

Les dangers sanitaires de l’industrie alimentaire

Les  dangers  sanitaires de l’industrie alimentaire

 

Nombre d’experts*  s’interrogent à propos de certains  risques sanitaires pour les aliments dits ultra transformé sans doute pour ne pas utiliser le terme plus clair mais plus accusateur d’industrie alimentaire,  sorte de chimie qui ajoute nombre d’additifs aux produits de base :

 

« Dans de nombreux pays, le degré de transformation des aliments a augmenté au cours des dernières décennies. Aujourd’hui, les aliments dits « ultra-transformés » représenteraient 25 à 60 % des apports énergétiques journaliers en Europe, aux États-Unis, au Canada, en Nouvelle-Zélande, et au Brésil.

Or, depuis quelques années, les études suggérant qu’une consommation excessive de ce type d’aliments pourrait avoir des effets délétères pour la santé s’accumulent. Plusieurs recherches ont notamment mis en évidence un lien entre la consommation d’aliments ultra-transformés et un risque plus élevé de surpoids ou d’obésité ainsi que d’hypertension artérielle dans une cohorte d’étudiants espagnols, tout comme un risque accru de dyslipidémies (taux anormalement élevé ou diminué de certains lipides dans le sang : cholestérol, triglycérides…) dans une cohorte d’enfants au Brésil.

Jusqu’à présent, aucune étude épidémiologique n’avait étudié les relations entre la consommation de ces aliments et le risque de maladies cardiovasculaires. C’est désormais chose faite.

Les travaux de l’équipe EREN, qui associe des chercheurs en épidémiologie nutritionnelle de l’Inserm, de l’Inra, de l’Université Paris 13 et du CNAM révèlent, dans un article publié dans le British Medical Journal, que la consommation d’aliments ultra-transformés est associée à un risque accru de maladies cardiovasculaires.

Ces travaux robustes s’appuient sur des données issues de la cohorte NutriNet-Santé. Ils ont inclus plus de 100 000 participants, suivis entre 2009 et 2018, et porté sur >3 300 aliments et boissons différents, classés en fonction de leur degré de transformation.

La notion de transformation des aliments est complexe à appréhender, car les procédés possibles et les additifs autorisés pour modifier les aliments sont très nombreux.

Afin de clarifier les choses, des chercheurs de l’Université de São Paulo ont proposé de classer les aliments en quatre groupes reflétant les niveaux de transformation des aliments. Cette classification « Nova » catégorise les aliments en 4 groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultra-transformés.

Ce dernier groupe inclut, entre autres, les sodas sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués avec ajout d’additifs, les confiseries et barres chocolatées, et tous les produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple). On y trouve aussi les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires, telles que les huiles hydrogénées et les amidons modifiés.

Ainsi, les viandes rouges ou blanches salées sont considérées comme des « aliments transformés » alors que les viandes ou charcuteries contenant des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme « aliments ultra-transformés ».

Dans le même ordre d’idée, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés » alors que les soupes déshydratées sont classées comme « aliments ultra-transformés ».

Formulés pour être microbiologiquement sains et pratiques d’utilisation, les aliments ultra-transformés ont, en moyenne, une qualité nutritionnelle plus faible que les autres aliments. Ils sont en effet souvent non seulement plus denses en énergie, plus riches en sel, sucre et acides gras saturés, mais également plus pauvres en fibres et en vitamines, et ils pousseraient à manger davantage.

Qui plus est, ces aliments ultra-transformés contiennent pour la plupart des additifs alimentaires (colorants, émulsifiants, texturants, édulcorants, etc.).

Ils sont par ailleurs susceptibles de véhiculer des substances provenant des emballages au contact des aliments, ainsi que certains composés « néoformés », c’est-à-dire produits lors des processus de transformation (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.).

Dans le cadre de la cohorte NutriNet-Santé, une association significative avait déjà pu être observée entre la part d’aliments ultra-transformés dans le régime alimentaire (en quantité) et une augmentation de divers risques : risque de cancers (au global et du sein), risque de mortalité, risque de symptômes dépressifs et de troubles fonctionnels digestifs.

Pour étudier les liens éventuels entre la consommation de ces aliments et le risque de maladies cardiovasculaires, nous avons recruté des participants qui n’avaient pas de maladie cardiovasculaire à leur entrée dans l’étude. Grâce à des enregistrements de 24 h répétés et validés, nous avons évalué la consommation alimentaire habituelle, et les milliers d’aliments et boissons consommés ont été classés en fonction de leur degré de transformation (selon la classification NOVA).

Les participants ont été suivis de 2009 à 2018 afin de détecter la survenue de maladies, et d’étudier les associations de ces maladies avec leurs consommations alimentaires. Les résultats sont clairs : la consommation d’aliments ultra-transformés s’est révélée être associée à un risque plus élevé de maladies cardiovasculaires, à la fois coronariennes et cérébro-vasculaires.

Une augmentation de 10 points de la part d’aliments ultra-transformés dans le régime alimentaire (par exemple, en comparant deux individus consommant respectivement 15 % et 25 % du poids de leurs aliments sous forme ultra-transformée) était associée à une augmentation de 12 % de risque de maladies cardiovasculaires au global (13 % pour les maladies coronariennes et 11 % pour les maladies cérébro-vasculaires).

Au sein des produits recensés par NutriNet-Santé, 85 % des produits de mauvaise qualité nutritionnelle (classés E par le NutriScore) étaient des aliments ultra-transformés.

Cependant, les résultats de nos travaux montrent que cette moins bonne qualité nutritionnelle globale des aliments ultra-transformés n’explique probablement pas à elle seule l’augmentation du risque cardiovasculaire. D’autres hypothèses mécanistiques sont envisageables, faisant par exemple intervenir des composés tels que certains additifs alimentaires ou substances formées lors des processus de transformation. Certains effets adverses sur la santé de tels composés ont en effet déjà été suggérés dans des études expérimentales.

C’est par exemple le cas de l’acrylamide, qui se forme au moment de la cuisson à haute température de certains aliments riches en asparagine (un acide aminé) et en amidon (frites/chips de pomme de terre, céréales du petit déjeuner, produits de panification, biscuits…). Cette molécule est reconnue comme cancérogène probable pour l’être humain, et a été liée au risque de maladies cardiovasculaires.

On peut aussi citer la carboxyméthylcellulose (E466), additif utilisé comme émulsifiant, qui, selon une étude sur des modèles animaux (souris), pourrait provoquer des réactions intestinales inflammatoires et augmenter le risque de syndrome métabolique, ou les matériaux au contact des aliments (comme le bisphénol A, maintenant interdit des emballages alimentaires et qui a lui aussi été lié à des désordres cardiométaboliques).

Les résultats obtenus dans cette étude sont robustes. Pour limiter les biais, ils tiennent compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie : âge, sexe, tabagisme, consommation d’alcool, niveau d’étude, activité physique, poids, les comorbidités métaboliques (maladies qui en accompagnent une autre), antécédents familiaux…

Cette étude observationnelle ne permet pas à elle seule de conclure à un lien de cause à effet. Cependant, des essais d’intervention au long cours, qui consisteraient à faire consommer des aliments ultra-transformés à des participants pendant plusieurs années, puis à évaluer l’impact sur leur santé (cancers, mortalité, maladies cardiovasculaires) ne sont pas envisageables.

Pour confirmer ces résultats, de nouvelles études épidémiologiques d’observation devront donc être réalisées, sur des populations diverses et dans d’autres pays. Il faudra également aller plus loin dans la compréhension des procédés de transformation grâce à de nouvelles approches épidémiologiques, couplées à des approches expérimentales in vitro et in vivo. Des essais randomisés, mais à court terme et portant sur des facteurs de risque précoces (comme la prise de poids) pourraient aussi être envisagés.

Aux États-Unis, un tel essai a récemment montré qu’un régime ultra-transformé favorise la consommation d’une quantité plus importante d’aliments, et la prise de poids.

En attendant d’en savoir plus, les recommandations nutritionnelles publiées récemment par Santé publique France dans le cadre du Programme national nutrition santé 2019conseillent, au nom du principe de précaution, de limiter la consommation d’aliments ultra-transformés et de privilégier la consommation d’aliments bruts ou peu transformés.

Pour parvenir à faire le tri dans les rayons des supermarchés, les consommateurs peuvent utiliser des applications gratuites comme celle d’Open Food Facts. S’appuyant sur une base de données ouverte et collaborative, elle permet en scannant le code-barre d’un produit alimentaire, d’afficher à la fois son NutriScore (logo qui renseigne sur la qualité nutritionnelle des aliments), sa catégorie NOVA (qui renseigne sur le degré de transformation), et la liste d’ingrédients (et d’additifs) qu’il contient.

Ce type d’outil est précieux pour atteindre l’objectif que s’est fixé le Haut Conseil de la Santé publique : réduire de 20 % la consommation d’aliments ultra-transformés en France d’ici à 2022.

Pour aller plus loin : À l’occasion des 10 ans de cette étude publique coordonnée par l’équipe EREN, un appel au recrutement est lancé. Vous souhaitez vous aussi faire avancer la recherche sur les liens entre nutrition et santé ? Rejoignez les 165 000 « Nutrinautes » de l’étude NutriNet-Santé ! Toutes les informations sont disponibles sur etude-nutrinet-sante.fr/.

  • Par Bernard Srour, Epidémiologiste – Equipe de Recherche en Epidémiologie Nutritionnelle EREN (Inserm U1153 / Inra U1125 / Cnam / USPC) – Centre de Recherche en Epidémiologie et Statistiques Sorbonne Paris Cité (CRESS), Institut national de la santé et de la recherche médicale (Inserm) ; Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Cité (USPC) et Serge Hercberg, Professeur de Nutrition Université Paris 13 – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Paris 13 – USPC

 

Industrie alimentaire : dangers sanitaires

Industrie alimentaire : dangers  sanitaires

 

Nombre d’experts *s’interrogent à propos de certains  risques sanitaires pour les aliments dits ultra transformé sans doute pour ne pas utiliser le terme plus clair mais plus accusateur d’industrie alimentaire,  sorte de chimie qui ajoute nombre d’additifs aux produits de base :

 

« Dans de nombreux pays, le degré de transformation des aliments a augmenté au cours des dernières décennies. Aujourd’hui, les aliments dits « ultra-transformés » représenteraient 25 à 60 % des apports énergétiques journaliers en Europe, aux États-Unis, au Canada, en Nouvelle-Zélande, et au Brésil.

Or, depuis quelques années, les études suggérant qu’une consommation excessive de ce type d’aliments pourrait avoir des effets délétères pour la santé s’accumulent. Plusieurs recherches ont notamment mis en évidence un lien entre la consommation d’aliments ultra-transformés et un risque plus élevé de surpoids ou d’obésité ainsi que d’hypertension artérielle dans une cohorte d’étudiants espagnols, tout comme un risque accru de dyslipidémies (taux anormalement élevé ou diminué de certains lipides dans le sang : cholestérol, triglycérides…) dans une cohorte d’enfants au Brésil.

Jusqu’à présent, aucune étude épidémiologique n’avait étudié les relations entre la consommation de ces aliments et le risque de maladies cardiovasculaires. C’est désormais chose faite.

Les travaux de l’équipe EREN, qui associe des chercheurs en épidémiologie nutritionnelle de l’Inserm, de l’Inra, de l’Université Paris 13 et du CNAM révèlent, dans un article publié dans le British Medical Journal, que la consommation d’aliments ultra-transformés est associée à un risque accru de maladies cardiovasculaires.

Ces travaux robustes s’appuient sur des données issues de la cohorte NutriNet-Santé. Ils ont inclus plus de 100 000 participants, suivis entre 2009 et 2018, et porté sur >3 300 aliments et boissons différents, classés en fonction de leur degré de transformation.

La notion de transformation des aliments est complexe à appréhender, car les procédés possibles et les additifs autorisés pour modifier les aliments sont très nombreux.

Afin de clarifier les choses, des chercheurs de l’Université de São Paulo ont proposé de classer les aliments en quatre groupes reflétant les niveaux de transformation des aliments. Cette classification « Nova » catégorise les aliments en 4 groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultra-transformés.

Ce dernier groupe inclut, entre autres, les sodas sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués avec ajout d’additifs, les confiseries et barres chocolatées, et tous les produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple). On y trouve aussi les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires, telles que les huiles hydrogénées et les amidons modifiés.

Ainsi, les viandes rouges ou blanches salées sont considérées comme des « aliments transformés » alors que les viandes ou charcuteries contenant des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme « aliments ultra-transformés ».

Dans le même ordre d’idée, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés » alors que les soupes déshydratées sont classées comme « aliments ultra-transformés ».

Formulés pour être microbiologiquement sains et pratiques d’utilisation, les aliments ultra-transformés ont, en moyenne, une qualité nutritionnelle plus faible que les autres aliments. Ils sont en effet souvent non seulement plus denses en énergie, plus riches en sel, sucre et acides gras saturés, mais également plus pauvres en fibres et en vitamines, et ils pousseraient à manger davantage.

Qui plus est, ces aliments ultra-transformés contiennent pour la plupart des additifs alimentaires (colorants, émulsifiants, texturants, édulcorants, etc.).

Ils sont par ailleurs susceptibles de véhiculer des substances provenant des emballages au contact des aliments, ainsi que certains composés « néoformés », c’est-à-dire produits lors des processus de transformation (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.).

Dans le cadre de la cohorte NutriNet-Santé, une association significative avait déjà pu être observée entre la part d’aliments ultra-transformés dans le régime alimentaire (en quantité) et une augmentation de divers risques : risque de cancers (au global et du sein), risque de mortalité, risque de symptômes dépressifs et de troubles fonctionnels digestifs.

Pour étudier les liens éventuels entre la consommation de ces aliments et le risque de maladies cardiovasculaires, nous avons recruté des participants qui n’avaient pas de maladie cardiovasculaire à leur entrée dans l’étude. Grâce à des enregistrements de 24 h répétés et validés, nous avons évalué la consommation alimentaire habituelle, et les milliers d’aliments et boissons consommés ont été classés en fonction de leur degré de transformation (selon la classification NOVA).

Les participants ont été suivis de 2009 à 2018 afin de détecter la survenue de maladies, et d’étudier les associations de ces maladies avec leurs consommations alimentaires. Les résultats sont clairs : la consommation d’aliments ultra-transformés s’est révélée être associée à un risque plus élevé de maladies cardiovasculaires, à la fois coronariennes et cérébro-vasculaires.

Une augmentation de 10 points de la part d’aliments ultra-transformés dans le régime alimentaire (par exemple, en comparant deux individus consommant respectivement 15 % et 25 % du poids de leurs aliments sous forme ultra-transformée) était associée à une augmentation de 12 % de risque de maladies cardiovasculaires au global (13 % pour les maladies coronariennes et 11 % pour les maladies cérébro-vasculaires).

Au sein des produits recensés par NutriNet-Santé, 85 % des produits de mauvaise qualité nutritionnelle (classés E par le NutriScore) étaient des aliments ultra-transformés.

Cependant, les résultats de nos travaux montrent que cette moins bonne qualité nutritionnelle globale des aliments ultra-transformés n’explique probablement pas à elle seule l’augmentation du risque cardiovasculaire. D’autres hypothèses mécanistiques sont envisageables, faisant par exemple intervenir des composés tels que certains additifs alimentaires ou substances formées lors des processus de transformation. Certains effets adverses sur la santé de tels composés ont en effet déjà été suggérés dans des études expérimentales.

C’est par exemple le cas de l’acrylamide, qui se forme au moment de la cuisson à haute température de certains aliments riches en asparagine (un acide aminé) et en amidon (frites/chips de pomme de terre, céréales du petit déjeuner, produits de panification, biscuits…). Cette molécule est reconnue comme cancérogène probable pour l’être humain, et a été liée au risque de maladies cardiovasculaires.

On peut aussi citer la carboxyméthylcellulose (E466), additif utilisé comme émulsifiant, qui, selon une étude sur des modèles animaux (souris), pourrait provoquer des réactions intestinales inflammatoires et augmenter le risque de syndrome métabolique, ou les matériaux au contact des aliments (comme le bisphénol A, maintenant interdit des emballages alimentaires et qui a lui aussi été lié à des désordres cardiométaboliques).

Les résultats obtenus dans cette étude sont robustes. Pour limiter les biais, ils tiennent compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie : âge, sexe, tabagisme, consommation d’alcool, niveau d’étude, activité physique, poids, les comorbidités métaboliques (maladies qui en accompagnent une autre), antécédents familiaux…

Cette étude observationnelle ne permet pas à elle seule de conclure à un lien de cause à effet. Cependant, des essais d’intervention au long cours, qui consisteraient à faire consommer des aliments ultra-transformés à des participants pendant plusieurs années, puis à évaluer l’impact sur leur santé (cancers, mortalité, maladies cardiovasculaires) ne sont pas envisageables.

Pour confirmer ces résultats, de nouvelles études épidémiologiques d’observation devront donc être réalisées, sur des populations diverses et dans d’autres pays. Il faudra également aller plus loin dans la compréhension des procédés de transformation grâce à de nouvelles approches épidémiologiques, couplées à des approches expérimentales in vitro et in vivo. Des essais randomisés, mais à court terme et portant sur des facteurs de risque précoces (comme la prise de poids) pourraient aussi être envisagés.

Aux États-Unis, un tel essai a récemment montré qu’un régime ultra-transformé favorise la consommation d’une quantité plus importante d’aliments, et la prise de poids.

En attendant d’en savoir plus, les recommandations nutritionnelles publiées récemment par Santé publique France dans le cadre du Programme national nutrition santé 2019conseillent, au nom du principe de précaution, de limiter la consommation d’aliments ultra-transformés et de privilégier la consommation d’aliments bruts ou peu transformés.

Pour parvenir à faire le tri dans les rayons des supermarchés, les consommateurs peuvent utiliser des applications gratuites comme celle d’Open Food Facts. S’appuyant sur une base de données ouverte et collaborative, elle permet en scannant le code-barre d’un produit alimentaire, d’afficher à la fois son NutriScore (logo qui renseigne sur la qualité nutritionnelle des aliments), sa catégorie NOVA (qui renseigne sur le degré de transformation), et la liste d’ingrédients (et d’additifs) qu’il contient.

Ce type d’outil est précieux pour atteindre l’objectif que s’est fixé le Haut Conseil de la Santé publique : réduire de 20 % la consommation d’aliments ultra-transformés en France d’ici à 2022.

Pour aller plus loin : À l’occasion des 10 ans de cette étude publique coordonnée par l’équipe EREN, un appel au recrutement est lancé. Vous souhaitez vous aussi faire avancer la recherche sur les liens entre nutrition et santé ? Rejoignez les 165 000 « Nutrinautes » de l’étude NutriNet-Santé ! Toutes les informations sont disponibles sur etude-nutrinet-sante.fr/.

 

 

 

  • * Par Bernard Srour, Epidémiologiste – Equipe de Recherche en Epidémiologie Nutritionnelle EREN (Inserm U1153 / Inra U1125 / Cnam / USPC) – Centre de Recherche en Epidémiologie et Statistiques Sorbonne Paris Cité (CRESS), Institut national de la santé et de la recherche médicale (Inserm) ; Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Cité (USPC) et Serge Hercberg, Professeur de Nutrition Université Paris 13 – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Paris 13 – USPC

 

 

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol