Archive pour le Tag 'Nouvelles'

Page 4 sur 15

Nouvelles restrictions au démarchage téléphonique

Nouvelles restrictions au démarchage téléphonique

Dans le cadre de l’application d’un décret d’octobre 2022 qui prendra effet le 1er mars, il sera, à partir de cette date, uniquement possible de vous démarcher par téléphone du lundi au vendredi, de 10 à 13 heures et de 14 à 20 heures. Exit donc les soirées, les week-ends et les jours fériés

En plus de la prospection commerciale, les fournisseurs de journaux, périodiques et magazines sont également concernés. «Cela s’applique aussi bien aux personnes non inscrites sur la liste Bloctel qu’à celles inscrites mais sollicitées dans le cadre d’un contrat en cours», précise le décret. Seuls les consommateurs qui ont donné leur consentement pourront ainsi être contactés.

Par ailleurs, un même démarcheur ne pourra pas vous appeler plus de quatre fois par mois. Et lorsque vous indiquez à une entreprise de ne plus vous contacter – quel que soit le nombre d’appels – le professionnel doit s’abstenir de vous rappeler «avant l’expiration d’une période de soixante jours calendaires révolus à compter de ce refus». En cas de violation des règles, les démarcheurs s’exposent à des sanctions : 75.000 euros pour une personne physique et 375.000 euros pour une personne morale, c’est-à-dire une entreprise. De quoi dissuader les démarcheurs insistants.

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Nouvelles journées d’action les 7 et 11 février

Syndicats: Nouvelles journées d’action les 7 et 11 février

Devant le nouveau succès de la manifestation du 31 janvier pour la participation a encore été supérieur à celle du 31 janvier, les syndicats ont décidé d’accentuer encore la pression. Deux positions s’affrontaient: celle qui consiste à durcir le mouvement sous forme de grèves y compris reconductibles, proposition surtout de la CGT et de Sud face à l’autre proposition des syndicats réformistes de privilégier les manifestations dans la rue moins contraignante financièrement pour les participants.

• La CFDT, qui militait pour fixer un jour de mobilisation durant un week-end afin de brasser encore plus large, a donc été entendue. «On a demandé assez tôt à avoir un samedi», confirme Marylise Léon, secrétaire générale adjointe du principal syndicat réformiste.

• Comme d’habitude, il y a les jusqu’au-boutistes font de la grève l’objet final de l’action syndicale et de l’autre ceux qui jouent sur la mobilisation de masse pour obtenir des résultats. Toutefois face au succès incontestable de l’unité syndicale, aucun syndicat n’a voulu prendre la responsabilité d’une rupture. Le succès de la participation doit en effet beaucoup à l’unité.

Nouvelles technologies : ChatGPT, un tournant ?

Nouvelles technologies : ChatGPT, un tournant  ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

Nouvelles technologies: Stop au tout digital

Nouvelles technologies: Stop au tout digital

La présence en ligne n’est pas la panacée. Encore moins une solution miracle pour redresser une entreprise en crise. Rechercher à tout prix et sans prendre de hauteur un projet de digitalisation pourrait même s’avérer dangereux. Par Romain Didrich, Fondateur de l’agence Kaizen (dans la Tribune)

Une tribune intéressante mais dont l’objet n’était pas de traiter également le côté kafkaïen de la digitalisation de l’ensemble de la société qui génère la robotisation des relations humaines NDLR

« Halte au tout digital !… À la suprématie d’Internet !… Au règne du click et du e-commerce ! ». On ne compte plus le nombre d’entreprises qui se lancent, tête baissée, dans un projet de digitalisation. Certaines dans l’optique de faire comme le concurrent. D’autres, pour répondre aux injonctions de notre société qui ne jure désormais que par le virtuel. D’autres, encore, par simple vanité personnelle. Parce qu’il est toujours valorisant de pouvoir afficher une jolie vitrine qui chante les louanges de son activité. Quand bien même serait-elle dématérialisée.
Bien sûr, une présence en ligne s’avère utile pour développer une activité commerciale (prestation de service, hôtellerie et restauration, vente de produits…).

Elle n’est toutefois pas toujours nécessaire et peut même se révéler dangereuse. A défaut d’accompagnement stratégique sur la question, certaines entreprises s’enlisent dans un projet de digitalisation mal ficelé, mal pensé, mal piloté. La perte de temps (et d’argent) qui s’ensuit n’est bien souvent pas négligeable. Surtout pour les petites entreprises.

Les ayatollah du digital oublient bien souvent un élément. Un détail qui a toutefois son importance : le réel, la vraie vie… et le bon sens ! Non, le digital n’est pas toujours la meilleure solution pour faire connaître son activité et se développer. En e-commerce, les places sont chères. Seule une poignée d’établissements « remontent » en première page Google. Comment peut-on espérer être visible, avoir des « e-clients », lorsque l’entreprise n’apparaît qu’en troisième ou quatrième page du moteur de recherche ?

Prenons l’exemple d’un producteur de vin qui souhaite développer son activité. Sur la Toile, il sera confronté à des géants du secteur. Des mastodontes comme Nicolas, Cash Vin, Dock du Vin, etc. Difficile, voire impossible, dès lors, pour ce producteur de tirer son épingle du jeu en ligne. S’il souhaite faire connaître sa marque et son produit, mieux vaut établir avec lui et pour lui, une stratégie à son échelle. Pourquoi pas autour de petits événements physiques et de proximité (stand sur des marchés, présence dans des salons…). Et, s’il parvient à développer son chiffre d’affaires et à fidéliser sa clientèle, alors il pourra envisager sereinement une stratégie de e-commerce. Une stratégie adaptée à son activité et à sa cible. En effet, les clients fidélisés sur les marchés seront les premiers à naviguer sur le site du producteur et donc, les premiers à acheter en ligne.

La logique est la même pour les petits commerçants. Notamment dans l’univers du prêt-à porter. Comment des boutiques de quartier peuvent-elles se démarquer sur Internet face à des marques comme H&M, Promod, Ba&sh, mais aussi des plateformes comme Amazon, Shein, Veepee…? Chercher une très grande visibilité en ligne n’a, dans ce cas, que peu d’intérêt. Le principal client de ce type de commerce est un consommateur local. C’est d’ailleurs parce qu’il est ultra-local que celui-ci est bien souvent très fidèle. Pour un tel commerce de proximité, la clientèle ne se fait pas en ligne, mais dans la rue. Avant de chercher une présence en ligne, il est ainsi indispensable de penser à la visibilité de la boutique. Est-elle suffisamment éclairée ? Est-elle située dans une zone passante ? Ses horaires d’ouverture sont-ils clairement affichés ? Des questions qui peuvent paraître anodines mais qui, bien souvent, passent à la trappe. Elles sont pourtant indispensables avant d’envisager tout chantier digital.

Qu’en est-il pour les professions libérales, les auto-entrepreneurs et autres acteurs qui n’ont ni pignon sur rue ni objet matérialisable à vendre ? Ces acteurs doivent effectivement, d’une manière ou d’une autre, déployer leur visibilité en ligne (sauf s’ils disposent d’une solide réputation et qu’ils ont la possibilité de se développer uniquement grâce au « bouche à oreille ». C’est rare, mais ça existe). Ces professions n’ont pas nécessairement besoin d’avoir leur propre site et ont la possibilité de se reposer sur la puissance de célèbres plateformes.
Les kinésithérapeutes, ostéopathes, podologues… peuvent ainsi compter sur le rayonnement de doctolib.

Ils ont la possibilité de se présenter, d’indiquer leur activité, leur mode d’exercice, leurs tarifs… et même de diffuser des photos d’eux et de leur cabinet. Il en va de même pour les restaurants, les hôtels ou les gîtes, qui peuvent très largement se présenter via des sites spécialisés comme Booking ou TheFork.

Nombreux sont les établissements qui font le choix de ne pas avoir de site propre et de n’être visibles que sur ces plateformes. D’autres entreprises optent pour une solution encore plus simple et se limitent à une page Facebook ou une référence Google via une fiche d’établissement (anciennement connue sous le nom « Google my business »). Une présence a minima sur la Toile mais qui, dans certains cas, suffit à atteindre son but final : augmenter son chiffre d’affaires.

Mieux vaut ainsi, pour un grand nombre d’acteurs, une présence simple et efficace sur la Toile, qu’une stratégie complexe, chronophage et coûteuse. Car oui, digitaliser son activité n’est pas une mince affaire. Elle suppose à la fois d’avoir un regard global sur le secteur, sur l’activité, sur la zone géographique, sur les objectifs commerciaux… Elle suppose ensuite de déterminer la meilleure stratégie possible. Cette stratégie prend en compte la création d’un site, mais aussi son référencement sur les moteurs de recherche. Un projet complet et, à certains égards complexe, qui suppose à la fois d’en avoir les moyens financiers et de s’entourer des bonnes personnes. Des prestataires aguerris et éclairés qui sont capables d’avoir non seulement un regard technique mais également une vision stratégique et globale. Sans quoi digitalisation pourrait bien rimer avec damnation.

Nouvelles technologies-la folie du tout numérique

Nouvelles technologies-la folie du tout numérique

 

 

Comme à chaque étape d’évolution technologique, le numérique a apporté des progrès indiscutables mais ses excès ont aussi favorisé la déshumanisation des relations sociales.

La vapeur, l’électricité, l’automobile ont constitué des étapes importantes de l’évolution technique mais ont également favorisé des effets pervers. Par exemple, le rail qui a remodelé l’aménagement du territoire et créé de véritables déserts économiques et sociaux en supprimant les lignes secondaires alors qu’au contraire il pouvait être un outil de développement harmonieux et équilibré.

L’ Électricité quant à elle ne doit pas faire oublier ses conditions de production tout autant que les gâchis de consommation. Il aura fallu attendre la guerre d’Ukraine pour qu’on commence à limiter l’inutile illumination permanente des villes qui par parenthèse trouble l’orientation des oiseaux migrateurs. Le numérique aura été la grande découverte et la grande application à partir de la fin du XXe siècle. Entreprises, citoyens, politiques perdent beaucoup en crédit s’ils ne glissent pas le mot numérique à chaque phrase.

Il s’agit évidemment d’un moyen extraordinaire pour transmettre en temps réel des masses d’informations qui demandaient précédemment des jours voire des semaines et même davantage. L’intérêt de la technique -autant que la mode- acontraint une grande partie de l’économie et de la société à se soumettre à la nouvelle religion. Évidemment avec la ferveur des nouveaux convertis.

Même les relations les plus intimes sont donc confiées également aux outils télé informatiques. Les progrès aidants, on pourra même se passer d’un humain pour converser. Et les perspectives d’évolution sont sans limites puisque des robots pourraient se substituer totalement à l’homme lors des échanges. D’autres envisagent d’implanter une puce dans le crane des humains véritablement en situation d’addiction technologique. Le Smartphone fait désormais parti du corps humain même la nuit. De ce point de vue, ses pannes seront un jour pris en charge par la sécurité sociale.

Les situations les plus kafkaïennes sont créées par ce recours surréaliste à la technique du digital. Ainsi toutes les relations administratives et commerciales ou presque passent par des plates-formes Internet ou des robots qui font semblant de répondre aux questions qui se posent.

Les marchands du temple ont bien entendu aussi envahi le numérique avec leur pub, leur fichier, leur site de vente. L’administration elle-même s’est engouffrée dans cette mode. Au lieu de répondre à une question, le robot propose la touche 1 ou la touche 2, 3 ou 4 avant même qu’on ait pu saisir le choix proposé.( Ou on propose de prononcer des mots que l’ordinateur ne comprend pas évidemment). Heureusement , il y a la touche 5 ( Où le mot de départ) qui permet de revenir au premier message qui tourne ainsi en boucle.

Le pire sans doute c’est que la numérisation a affecté encore davantage les rapports humains que les rapports commerciaux et administratifs. Mais en réalité, l’utilisateur du Smartphone, de la tablette ou de l’ordinateur converse surtout avec lui-même. Et les « progrès » aidant on pourra même se passer d’intermédiaires techniques et sombrer dans une sorte de schizophrénie permanente quand l’intéressé finira par se parler à lui-même. Il ne s’agit sans doute pas de déréglementer surtout ce qui relève du privé mais de développer une sorte d’éthique et de formation à l’usage de techniques qui mettent l’homme en situation de dépendance au même titre que l’alcool ou la drogue certes avec des conséquences moins mortelles.

L’excès de numérique ne met pas forcément en cause la vie humaine mais il peut condamner à vivre idiot.

SNCF : Toujours de nouvelles grèves

SNCF : Toujours de nouvelles grèves


On vient encore de connaître plussieurs grèves successives, grève des contrôleurs, grève générale et maintenant grève des aiguilleurs. Des aiguilleurs dont effectivement on exige beaucoup de technicité comparés et de tensions par rapport par exemple aux contrôleurs. Reste que l’entreprise reste la championne de France des conflits .

Il est clair que depuis des années et des années les gauchistes et autres corporatistes ont décidé de tuer définitivement une entreprise particulièrement malade tant sur le plan économique que financier. Pire,l’action des extrémistes a même réussi à faire sauter le symbole sacré du statut créant ainsi des inégalités inadmissibles entre anciens qui en bénéficient encore et nouveaux qui sont soumis aux règles du privé.

Ces gauchistes ont choisi le champ géographique de la SNCF pour s’exercer à la révolution. Ces fils de Robespierre, de Lénine et de Trotsky minent littéralement une entreprise qui perd régulièrement des parts de marché partout. C’est en raison de ses dysfonctionnements et d’un manque de compétitivité chronique que la SNCF a d’abord perdu le transport express, ensuite le transport de messagerie puis pratiquement une grande partie du transport de wagons et trains complets. En transport de personnes, la plupart des petites lignes ont été fermée. Les lignes inter cités sont très menacées. Restent surtout les lignes urbaines et à grande vitesse.

Ces gauchistes accordent peu d’importance d’ailleurs à la satisfaction même de la revendication, l’action compte bien davantage que le résultat ; L’objectif c’est la lutte contre capitalisme, l’anti-impérialisme qui sont visés dans une entreprise nationalisée !

Bref il y a longtemps que certains syndicats se sont transformés en véritables fossoyeurs d’une entreprise qui ne cesse de se ratatiner en même temps que de s’enfoncer dans un endettement incommensurable même en dépit de l’immense aide de l’État.

Les départs en vacances de Noël risquent donc virer au cauchemar pour les clients de la SNCF. Le syndicat SUD-Rail a donc décidé vendredi de maintenir son appel à la grève des aiguilleurs couvrant le premier week-end des vacances, du 15 au 19 décembre, après une journée de négociation avec la direction de la SNCF qu’il juge infructueuse.

GUERRE EN UKRAINE: MEDVEDEV menace avec de nouvelles armes

GUERRE EN UKRAINE: MEDVEDEV menace avec de nouvelles armes

L’ex-président russe, MEDVEDEV , une nouvelle fois joue les chiens qui aboient fort en déclarant que la Russie prépare de nouvelles armes vis-à-vis de l’Occident et pas seulement vis-à-vis de l’Ukraine.

Medvedev a l’habitude de jouer le chien de garde de Poutine. Un Poutine qui se méfie cependant de lui. Et Medvedev tente désespérément d’en rajouter pour se crédibiliser auprès de Poutine. Il affirme que de nouveaux « moyens de destruction » sont en fabrication et qu’ils pourraient être utilisés contre l’Occident. « Notre ennemi ne s’est pas retranché uniquement dans le Gouvernement de Kiev », a-t-il assuré.

L’ex-président russe et actuel numéro 2 du Conseil de sécurité, Dmitri Medvedev, a affirmé ce dimanche que Moscou fabriquait les « moyens de destruction les plus puissants » basés sur de « nouveaux principes », en menaçant de s’en servir contre l’Occident.

Le chien de garde autoproclamé de Poutine tente ainsi de dissimuler la défaite militaire de la Russie en élargissant le champ des opérations.

Dans le même temps Poutine parle aujourd’hui d’accord pour mettre fin provisoirement aux hostilités. Sans doute aussi une répartition des rôles entre les responsables russes.

Nouvelles technologies- Métavers: la cruelle illusion ?

Nouvelles technologies- Métavers: la cruelle illusion ?

Il semble bien que l’immense projet metavers de Facebook va se transformer en véritable catastrophe économique. Facebook ( Meta) avait créé l’illusion d’une véritable révolution technologique grâce à la virtualité. Un an après, tous les projets déçoivent et il n’y a plus d’argent Meta a créé une illusion collective. Un an après, tout le monde a entendu parler de métavers mais peu savent bien le définir, surtout, très peu le fréquentent et pire, encore moins le désirent.

Un échec pourtant prévisible. Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».
Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ¬fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Nouvelles technologies: Une révolution digitale qui va tout changer

Nouvelles technologies: Une révolution digitale qui va tout changer ?

Dans le numérique, une innovation de rupture s’impose tous les 10 ans. La prochaine sera celle de la décentralisation massive de tout, avec avec pour conséquence de voir les « barbares » remplacer les empereurs qui dominent actuellement l’industrie numérique. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies. ( dans la Tribune)

Un article intéressant mais cependant un peu confus et excessif sur la révolution digitale en cours.Notons juste un exemple l’amplification de la circulation de l’information n’a pas entraîné jusque-là la baisse de base de la mobilité physique; au contraire elle la favorise. NDLR

Les grands moteurs structurants de la mutation numérique sont l’accroissement continu des puissances disponibles de traitement de l’information, de la suppression des contraintes de temps et de distance, des nouvelles possibilités de collaboration et la chute des coûts de communication, d’interaction et plus généralement de transaction.
Ces grands moteurs s’expliquent par 4 lois :
• Loi de Moore, selon laquelle le nombre de transistors sur une puce doublera tous les deux ans.
• Loi de Kryder, selon laquelle le stockage en mémoire augmenterait de façon exponentielle dans un avenir proche.
• La loi de Robert, selon laquelle le coût de la transmission de données sur le réseau diminuerait chaque année.
• La loi de Metcalfe, selon laquelle, l’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs (N²)
Ces grandes mutations numériques se produisent tous les 10 ans. 1944, avec le premier ordinateur, 1954 avec le mainframe, 1964 avec le mini ordinateur, 1974 avec le micro ordinateur, 1984 avec le Mac, 1994 avec le Web, 2004 avec les réseaux sociaux. Depuis 2014, nous sommes rentrés dans l’ère de l’Internet of Me. Le prochain mouvement tectonique commencera en 2024, avec la décentralisation massive de tout.
Ces mouvements tectoniques sont orchestrés par la nouvelle façon d’accéder à l’information et de communiquer. Un proverbe chinois connu positionne très bien la révolution que nous vivons actuellement.
Il dit la chose suivante :
« Dis-le moi et je l’oublie
Montre-le moi, et je le retiens
Implique-moi, et je comprends »
Dis-le moi et je l’oublie
Ce sont les médias traditionnels. Cette démarche est adaptée au marketing de masse. C’est la presse et la radio. Ils diffusent des textes ou des séquences sonores. Ces modes de communications sont linéaires et induisent un mode de fonctionnement très fortement structuré et réducteur. Le point important est la non interactivité, les auditeurs réagissent peu et difficilement, et pas entre eux L’exemple type de ce mode de communication est la radio.
Montre-le moi et je le retiens
C’est l’audiovisuel avec la télévision mais aussi le cinéma. Le pouvoir de l’image est considérablement plus grand que celui du texte et du son parce que plus émotif, il provoque des réactions rapides et peu réfléchies. Pas d’interactivité et plus de superficialité qu’avec l’écrit. Dans une société de plus en plus entièrement tournée vers l’efficacité au moindre coût, l’audiovisuel est devenu le moyen de communication de base, car il est plus riche et plus performant. La télévision est l’exemple type de ce mode de communication.
Implique-moi et je comprends
C’est l’apport fondamental d’Internet par rapport à la radio et à la télévision. La richesse du média audiovisuel reste limitée, car il rend passif l’utilisateur. Au contraire, les nouvelles technologies de l’information permettent d’impliquer plus fortement l’individu, le rendre plus actif et plus responsable, donc plus autonome et plus efficace.
C’est ici que réside toute l’originalité de ce nouveau média dont il est possible d’imaginer aisément l’impact sur notre société. Le dialogue devient réel et la création de valeur va dépendre de la loyauté. Ce n’est que l’effet David, il y a aussi l’effet Goliath, prise de monopole, manipulation plus efficace et uniformisation (Coca, McDo…).
Les mouvements tectoniques depuis 1985 à 2020
Les effets de la tectonique des médias se sont d’abord faits sentir sur les contenus qui en devenant numériques sont à l’origine d’une transformation des équipements nécessaires à leur restitution mis à la disposition du grand public. Ces équipements associés aux contenus ont nécessité de nouvelles infrastructures qui ont permis des échanges entre les individus beaucoup plus efficaces. Ces nouvelles infrastructures ont ensuite nécessiter de nouveaux services qui à leur tour ont nécessité des contenus.
Les 4 plaques tectoniques ont déjà fait profondément transformer de nombreux secteurs d’activité :
• Les contenus ont commencé à se numériser en 1985 avec les CD-COM et l’interface du Mac
• Les équipements ont commencé à s transformer en 1990 avec la télévision interactive et à haute définition
• Les infrastructures ont commencé à se transformer avec le web en 1995
• Les services ont commencé à se transformer avec les moteurs de recherche en 2000
Depuis 2000, nous sommes de nouveau revenus à un nouvelle série de mouvements tectoniques qui se sont se succédés de la façon suivante :
Le début de la nouvelle ère des contenus a été régi par les réseaux sociaux (2005-2010)
Les fonctions participatives, la liberté d’expression caractéristiques des réseaux sociaux ont libéré la voix des consommateurs non seulement vis-à-vis de la marque mais surtout entre eux.
Les enjeux de ce nouveau paradigme débordent largement le cadre d’Internet puisque les marques vont devoir passer :
• d’une logique transactionnelle à une logique conversationnelle : difficile maintenant d’assurer une vente sans avoir débuté une écoute attentive des besoins du consommateur et une réponse personnalisée à ceux-ci
• d’une logique de distance et d’anonymat à une logique de proximité : de la hot-line standardisée à la conversation humanisée
• d’un marketing de diffusion (écran TV, annonce presse, bannière Web, etc.) à un marketing d’engagement : la mise à disposition pour un client d’une équipe et d’une organisation spécifique
• et probablement de valeurs consuméristes à des valeurs morales et de responsabilité sociale : les promotions sur les prix feront-elles face à des engagements moraux et sociétaux des entreprises ?
Le début de la nouvelle ère du smartphone et de l’ATAWAD (2010-2015)
La nouvelle électronique grand public a permis au client impatient d’accéder aux services dont il a besoin non seulement tout de suite mais n’importe quand et n’importe où et où qu’il soit. Les objets nomades nous ont fait découvrir avec l’ATAWAD que nous pouvons agir au même moment et du même endroit sur notre sphère professionnelle et notre sphère privée, intervenir du bureau et de la maison ou notre lieu de loisir, de commerce.
Le début de la nouvelle ère de l’IoT avec l’atmosphère IP (2015-2020)
Avec l’Atmosphère IP et l’ATAWAD, l’extension des infrastructures de réseaux numériques de toute nature et notamment sans fil a permis au consommateur de prétendre pouvoir affirmer : « ma maison, mon bureau, mes lieux de loisir ou de consommation ne sont plus dans leurs murs, ils sont là où je suis… et mes relations sont toujours à portée de ma voix ou de mon courrier ». Les mobiles ont joué un rôle de en plus important.
Cette ère a été marquée par l’émergence de l’IoT avec les caractéristiques suivantes :
• l’IoT encourage la communication entre divers appareils. Les appareils physiques peuvent rester connectés et offrent une transparence totale avec moins d’inefficacité et une meilleure qualité.
• les objets physiques se connectent, numériquement avec une infrastructure sans fil, il y a donc une grande quantité d’automatisation et de contrôle.
• Plus d’informations, cela aide à prendre de meilleures décisions.
Les prochains mouvements tectoniques devraient être les suivants :
• L’Internet of Augmented Me (2020-2025)
• La décentralisation massive de tout avec le Web3 (2025-2030)
L’Internet of Me
L’Internet of Augmented Me ou en abrégé I.am définit un cadre de vie où le consommateur citoyen est maître de ses choix et influence directement la production de biens et de services par le biais d’interactions électroniques, partout où il est.
Cet univers répond aux besoins primaires des individus et à leurs désirs d’épanouissement. Il s’appuie sur des combinaisons de technologies avancées, mêlant numérique, physique quantique et biologie.
Avec l’Internet of Me, nous sommes maintenant dans la troisième vague où les acteurs ne se laisseront plus obnubiler par les taux d’audience et se concentreront sur les transactions effectivement effectuées.
Ces transactions effectives impliquent une implication suffisante des prospects pour qu’ils passent à l’acte. Le commerce sera notamment d’autant plus efficace qu’il écoutera, donnera la possibilité à la demande de s’exprimer en confiance, de façon individuelle, n’importe où et n’importe quand.
Ce commerce de l’ubiquité exploite pleinement l’économie de réseau, la possibilité d’agréger des offres dans une logique de consommation en se libérant des astreintes de la logique de production, en misant à fond sur le pouvoir d’implication de l’unimédia.
L’implication est essentielle car dans une situation où toute l’offre du monde est à portée de clic, ce qui est rare est le temps de chacun, ce qui est précieux, c’est de réussir à retenir l’attention de quelqu’un pour qu’il veuille bien accorder un peu de son temps à examiner une offre.
La décentralisation massive de tout
25 innovations digitales seront au cœur de la nouvelle vague des innovations digitales :
• 6G
• 5G
• L’AR/VR
• L’autonomie de tout
• La Blockchain
• La connectivité globale
• La DAO
• La datafication
• Les drones
• Les edge computing
• L’énergie harvesting
• Les nouvelles sources d’énergie (hydrogène, solaire, etc.)
• L’intelligence artificielle
• L’identification décentralisée
• L’impression 3D
• Les interfaces naturelles
• L’Internet des comportements
• L’Internet du corps
• L’loT
• Le métaverse
• La nouvelle mobilité
• L’informatiques quantique
• La robotique as a service
• La cyber sécurité et la résilience
• La tokenisation
• Le twin
Au cours des 10 prochaines années, l’impact de cette vague du numérique va complètement transformer les modèles économiques, le commerce immersive, l’industrie, l’agriculture, les super cities, la logistique, les bâtiments intelligents, la supply chain, etc.
Les barbares vont en profiter pour remplacer les empereurs actuels
Le catalyseur de cette nouvelle vague du numérique sera le Web3.
Web3 est l’internet décentralisé qui vient remplacer le web actuel. L’architecture web3 est conçue pour être un réseau décentralisé de nœuds peer-to-peer. La pile web3 se compose de protocoles, de normes et d’interfaces qui constituent l’épine dorsale de ce nouveau type d’Internet.
Web3 est une initiative visant à façonner l’avenir d’Internet. C’est la prochaine étape logique pour donner aux utilisateurs un contrôle total sur leur contenu, leur propriété numérique et leurs personnages numériques dans le domaine numérique.

Les centrales nucléaires: nouvelles cibles de guerre

Les centrales nucléaires: nouvelles cibles de guerre

L’utilisation par Vladimir Poutine des centrales ukrainiennes comme moyen d’intimidation des Occidentaux met en lumière la faiblesse des conventions internationales qui protègent ces installations civiles.( Le Monde)

 

Vladimir Poutine a un art consommé pour jouer de l’effroi qu’inspire le nucléaire, civil et militaire. Le président russe a réitéré ses menaces d’emploi de l’arme atomique, mercredi 21 septembre, trois jours après une frappe de missiles à proximité des réacteurs de la centrale de Pivdennoukraïnsk (Sud). Il avait déjà fait de celle de Zaporijia, la plus puissante d’Europe (6 000 mégawatts), occupée dès le début de la guerre par son armée, un outil d’intimidation des Occidentaux. Pour la première fois depuis le développement à grande échelle des applications civiles de l’atome, dans les années 1950, des sites se retrouvent au cœur d’un conflit armé.

Un nouveau Tchernobyl est improbable, la cuve où se produit la réaction atomique étant mieux protégée ; mais la fonte du cœur est possible en cas de coupure prolongée de l’alimentation électrique et d’un arrêt des circuits de refroidissement. A Zaporijia, la situation a été qualifiée d’« intenable » par le directeur général de l’Agence internationale de l’énergie atomique (AIEA), le 6 septembre. Rafael Grossi réclame une « zone de protection » autour du site, jugeant que « quelque chose de vraiment, vraiment catastrophique pourrait se produire ». Sans succès jusqu’à présent. Qui peut décider une telle sanctuarisation, sinon le maître du Kremlin ?

Si les industriels, les opérateurs de centrales et les autorités de sûreté nucléaires coopèrent à travers le monde, il n’existe pas de gouvernance mondiale digne de ce nom. L’AIEA contrôle et fait des recommandations sans moyens de les imposer. Elle en réfère au Conseil de sécurité des Nations unies qui n’en a pas plus, puisque la Russie en est un des cinq membres permanents et y a droit de veto. « La sûreté nucléaire a fait énormément de progrès depuis les ­accidents de Tchernobyl et de Fukushima, a constaté M. Grossi, dans un entretien au Monde, en août. Mais, au milieu d’une guerre, elle n’est jamais absolue. » Personne ne s’était préparé à ce qu’une centrale « se retrouve au milieu d’une grande confrontation de type conventionnel ».

De longue date, les défenseurs du droit international humanitaire avaient pourtant prévu cette menace. La convention de Genève de 1949 sur la protection des civils, adaptée au fil des décennies, proscrit les agissements reprochés à Moscou. « Les barrages, les digues et les centrales nucléaires de production d’énergie électrique ne seront pas l’objet d’attaques, prévoit l’article 56 du protocole additionnel I de 1977même s’ils constituent des objectifs militaires, lorsqu’[elles] peuvent provoquer la libération de ces forces et, en conséquence, causer des pertes sévères dans les populations civiles. »

Nouvelles technologies : la photonique

Nouvelles technologies : la photonique

La photonique est une technologie clé que l’Europe ne peut se permettre de perdre

OPINION. Pour rester compétitive, l’Europe doit être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Notamment la photonique, ou science de la lumière, qui trouve des cas d’usage dans de nombreux secteurs stratégiques, à commencer par l’agriculture. Par Giorgio Anania, PDG de la startup industrielle Aledia.

 

La photonique, ou science de la lumière, est un outil essentiel pour les ambitions de l’Europe en termes de numérique, de technologie de fabrication (industrie 4.0), d’intelligence artificielle, d’agriculture intelligente, de 5G, etc. En tant que technologie habilitante, elle touche à des éléments essentiels liés à des chaînes de valeurs stratégiques, de l’industrie automobile et médicale à l’aérospatiale et aux ordinateurs quantiques.

Actuellement, une vague de chaleur s’abat sur l’Europe et représente une véritable menace pour l’agriculture. En outre, et depuis quelques années, les sols sont trop secs (y compris en France), ce qui affecte davantage le secteur. Selon les experts du climat, dans les prochaines années, nous serons encore plus souvent confrontés à ces conditions qui risquent d’être plus dramatiques. L’agriculture devra donc devenir beaucoup plus efficace, et pas uniquement au niveau de la consommation d’eau.

La photonique contribue à l’amélioration de l’agriculture moderne. En effet, les lasers, l’imagerie hyperspectrale, les capteurs et les LED sont déjà utilisés quotidiennement dans l’agro-industrie. Grâce à ces produits et solutions photoniques, l’agriculture peut surveiller le niveau d’eau, prédire le taux de protéines dans les récoltes de céréales, déterminer le moment opportun pour la récolte des fruits et analyser les produits pour détecter les polluants.

À l’avenir, la photonique pourra contribuer à gérer les fermes verticales. Il s’agit de la culture de denrées alimentaires sur plusieurs niveaux, par exemple dans des hangars. Les fermes verticales, permettent notamment d’économiser de l’espace et de l’eau par rapport aux serres conventionnelles. Les environnements soigneusement contrôlés amélioreront la qualité et le goût des aliments.

Les exemples cités ci-dessus ne représentent qu’un échantillon de ce que la photonique peut apporter. Ses avantages touchent de nombreux autres secteurs clés en France et dans l’UE. Quelques chiffres permettent d’ailleurs d’illustrer l’importance de l’industrie photonique : les entreprises de photonique de l’UE ont pu passer d’un chiffre d’affaires de 76 milliards d’euros en 2015 à 103 milliards d’euros en 2019 – ce qui correspond à un taux de croissance annuel moyen de 7 % sur cette période. Cette croissance dépasse celle de plusieurs secteurs y compris le secteur de la tech avec 4,5 % ou la technologie médicale avec 4,9 %.

Aujourd’hui, le marché de la photonique est desservi par environ 5000 entreprises, principalement des PME. Celles-ci sont extrêmement compétitives, ont créé plus de 30 000 nouveaux emplois au cours des dernières années et ont l’intention de continuer sur cette lancée. Sur le marché mondial, l’industrie photonique européenne s’affirme comme le deuxième plus grand marché, juste derrière la Chine.

Néanmoins, nous sommes confrontés à une concurrence de plus en plus rude – souvent soutenue par des investissements très importantes de la part des États. Il suffit d’observer les autres pays pour connaitre le soutien dont ils disposent. Selon une étude menée en 2017, le gouvernement chinois a subventionné à lui seul l’industrie photonique locale à hauteur d’un milliard d’euros (au moins), sans compter les aides régionales. Selon cette même étude, la Corée du Sud est également très attachée à la photonique et a injecté au moins 2,8 milliards d’euros de fonds publics afin de la propulser au premier rang mondial. Récemment, les États-Unis ont également conclu un partenariat public-privé d’une valeur de 610 millions de dollars afin de contribuer à renforcer la production high-tech de circuits intégrés photoniques dans le pays.

Nous sommes fermement convaincus que pour rester compétitive, l’Europe devrait être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Pour cela, Photonics21 a déposé une proposition auprès de la Commission européenne, dénommée « Horizon Europe 2021-2027 ». En effet, les dépenses consacrées aux recherches provenant des fonds européens (dont le montant est d’environ 500 millions d’euros) sont complétées par des investissements « privés » issus d’acteurs de l’industrie photonique dans des services de recherche et d’innovation, ainsi que des investissements (R+I spending et Capex) d’environ 100 milliards d’euros d’ici à 2027 également.

Nous avons récemment assisté à une crise des semi-conducteurs face à la concurrence internationale. En conséquence, une pénurie des puces électroniques a gravement nui à l’économie européenne. Aujourd’hui, une loi européenne sur les puces électroniques est nécessaire pour renverser la donne. Afin d’éviter que cela ne se reproduise avec la photonique, il faut prévoir un « EU Photonics Act ». La photonique étant indispensable pour les différents secteurs et dont la valeur ne fera qu’augmenter avec le temps. La promotion de la recherche au niveau national et européen est par conséquent primordiale.

Régénération cellulaire possible avec les nouvelles technologies ?

Régénération cellulaire possible avec les nouvelles technologies ?

Pour la première fois, un morceau de tissu humain imprimé en 3D a été implanté sur une patiente, ouvrant la voie à la régénération du corps en imprimant ses propres cellules. Pour des greffons accessibles, naturels avec zéro rejet. ( un papier de la Tribune )

 

C’est une première pour la communauté scientifique et médicale. En mars dernier, une équipe américaine a implanté sur une patiente un pavillon d’oreille biologique imprimé en 3D. La greffe visait à corriger la malformation congénitale d’une des oreilles due à ce qu’on appelle la microtie. Fabriquée par la biotech américaine 3DBio Therapeutics, l’implant a été imprimé avec des cellules de cartilage de la patiente. Auparavant la biotech avait aussi imprimé une coque de la même forme que l’autre oreille. Une coque pour que le mélange de cellules et gel de collagène imprimés garde la bonne forme du pavillon en se développant. Faite de matériaux biodégradables, cette coque sera intégrée au corps de la patiente au fil du temps pour laisser libre ce nouveau pavillon d’oreille vivant. Suite à ce premier succès, 3DBio Therapeutics lance un essai clinique à Los Angeles (Californie) et San Antonio (Texas) sur onze patients atteints de microtie.

L’impression de cartilage

Si l’essai décrit est confirmé par les publications à venir, cette greffe de tissus biologiques imprimés fait partie des grandes innovations médicales attendues. La biotech américaine est restée avare sur les détails de sa technologie, mais l’annonce semble sérieuse alors que 3DBio Therapeutics travaille sur l’impression de cartilage depuis plusieurs années. En France, notre pionnière de l’impression de tissus biologique Proietis est également sur les rangs. Elle devrait implanter le premier morceau de peau imprimée en 3D à l’hôpital de Marseille en fin d’année.

Le principe de l’impression biologique semble simple : cultiver différents types de cellules de peau ou de cartilage afin d’obtenir des « encres » biologiques à imprimer en D. En réalité, il s’agit d’une bio technologie très complexe qui a demandé des années de mise au point. D’une part, les cellules sont vivantes et doivent le rester pendant l’impression et après. L’imprimante doit éviter toute contamination microbienne ou chimique qui dégraderait le tissu. Les différentes cellules doivent toutes être imprimées dans le bon ordre pour fonctionner entre elles comme dans notre organisme. Elles doivent aussi disposer des ressources nécessaires pour survivre le temps que le tissu soit utilisé.

L’unité Inserm BIOTIS travaille sur l’impression de tissus biologiques en 3D. Elle imprime notamment des tumeurs cancéreuses pour comprendre comment elles se développent et à quoi elles réagissent. « Avec ces encres biologiques, les tissus évoluent une fois imprimés et il faut bien comprendre comment, souligne son directeur Jean-Christophe Fricain. Ils doivent aussi être alimentés en oxygène et en nutriments pour survivre. Imprimés en couches fines, on peut les alimenter de l’extérieur in vitro et in vivo le corps les revascularisera une fois qu’ils seront implantés. Mais imprimer un organe plus épais nécessiterait d’y adjoindre un circuit veineux vasculaire hiérarchisé à raccorder aux vaisseaux du patient ce qui est un nouveau défi à relever. »

Autorisation réglementaire

Si certains labos et biotechs impriment des tissus biologiques depuis quelques années, ils sont utilisés dans le cadre d’analyses et de recherches. Jusqu’à l’expérience 3DBio Therapeutics, personne n’avait encore reçu l’autorisation réglementaire de les implanter sur des patients. Car l’opération nécessite des autorisations strictes comme dans le cadre des médicaments.

Depuis 2016, la biotech française Proietis imprime de la peau destinée aux recherches pharma, aux tests toxicologiques et à la cosmétique. Elle est passée au stade supérieur en novembre dernier en installant sa plateforme de bio impression dans un hôpital de Marseille pour lancer des essais cliniques. Là encore, un implant de peau imprimée sera une première. Mais l’exercice nécessite de convaincre les instances sanitaires très vigilantes sur sujet : le procédé d’impression doit être conforme aux bonnes pratiques de fabrication (BPF) du médicament pour que le morceau greffé au patient soit parfaitement sans danger.

« Nous sommes en train de boucler le dossier de demande d’essai clinique avec l’APHM (1), affirme le CEO Fabien Guillemot. Avec les essais précliniques sur des souris, nous avons vérifié la capacité à suturer cette peau imprimée et sa bonne prise sur la plaie de l’implant. Nous pensons envoyer la demande d’essai en septembre et, grâce à la procédure fast track, nous pourrions obtenir l’autorisation en fin d’année. » Comme avec de nombreuses biotechnologies aux tarifs difficiles à supporter par les systèmes de santé, ce nouveau traitement posera la question du modèle économique, alors que cultiver des cellules vivantes ou modifier des gènes coûte bien plus cher que le travail de substances chimiques. « Nous avons cherché des moyens de maîtriser le coût de cette nouvelle technologie. Nous proposons d’implanter nos plateformes dans les plus grands hôpitaux afin de produire là où on implante sans coûts de conservation et de transport. En imprimant les propres cellules de peau du patient, nous évitons aussi tout phénomène de rejet. »

Ces premiers essais cliniques, actuels et à venir, font déjà rêver d’une médecine capable d’imprimer des cœurs et des foies en 3D pour remplacer les organes malades, mais on en est encore vraiment très loin. Le laboratoire de recherche CNRS 3DFab étudie les différentes applications de la fabrication 3D en santé : « Si l’on sait imprimer des tissus simples, on ne maîtrise pas du tout la fabrication de ceux qui, par exemple, filtrent le sang ou produisent des substances nécessaire au corps, affirme le Dr Christophe A. Marquette, Directeur adjoint du laboratoire. On va déjà avoir besoin de cinq ou dix ans pour greffer couramment la peau ou le cartilage. Mais de bien plus encore pour pouvoir implanter des organes plus complexes. » En mars dernier, des chercheurs de l’Université d’Utrecht (Pays-Bas) ont imprimé des cellules hépatiques pour créer un tout petit foie au fonctionnement proche d’un organe naturel. Mais l’organe n’était vraisemblablement pas vascularisé pour survivre et lorsque l’on saura fabriquer des foies ou des reins valides, encore faudra-t-il leur apprendre à fonctionner. « Aujourd’hui, la science travaille sur des systèmes de développement in vitro des organes. Au-delà de leur impression, ils doivent être capables d’entrer en fonction comme ceux d’un embryon. Fabriquer et mettre en service ce type d’organe devrait impliquer des coûts très élevés au regard des volumes que l’on pourra vendre. »

En attendant les peaux et les cartilages imprimés – alors que la Chine travaille sur l’impression de vaisseaux sanguins – l’impression 3D au service de la médecine permet déjà de fabriquer des structures pour des greffons sur mesure. Ces coques sont imprimées dans des matériaux naturels type silicone. On y injecte les cellules du patient pour qu’elles se multiplient dans un milieu adapté et à la bonne forme. C’est le cas des bioprothèses mammaires de la biotech française Healshape, des prothèses faites des cellules du corps lui-même qui reprennent la forme souhaitée après une mastectomie (voir article de La Tribune ).

Tout jeune, mais en pleine expansion, le marché semble prometteur. Data Bridge Market Research estime que ce marché des tissus imprimés en 3D devrait connaître une croissance à un taux de croissance annuel composé (TCAC) de 14,32 % entre 2021 et 2028. Il se développerait en médecine régénérative sous l’effet des maladies chroniques et du vieillissement de la population nécessitant davantage de régénérations.

(1) APHM : Assistance publique hôpitaux de Marseille

Nouvelles technologies : mettre fin aux logiciels espion

Nouvelles technologies : mettre fin aux logiciels espion des mobiles

 

La révélation en juillet 2021 de l’ampleur de la surveillance illégale étatique menée par le logiciel espion Pegasus a provoqué une onde de choc mais les mesures prises, notamment en France, ne sont pas à la hauteur dénonce un collectif de responsables d’ONG des droits humains ( dans le Monde)

 

Le « Projet Pegasus », collaboration sans précédent menée par plus de quatre-vingts journalistes de dix-sept médias dans dix pays et coordonnée par Forbidden Stories avec le soutien technique d’Amnesty International, a révélé comment des Etats ont ciblé des journalistes, des militants, des avocats et des personnalités politiques en ayant recours au logiciel espion Pegasus vendu par l’entreprise israélienne de cybersurveillance NSO Group.

Plusieurs journalistes français ont ainsi été illégalement espionnés – des infections confirmées par les autorités françaises – tandis que, selon les médias, le président Emmanuel Macron, le premier ministre d’alors, Edouard Philippe, et quatorze ministres faisaient partie des cibles potentielles en 2019.

Ces révélations ont marqué un véritable tournant et permis l’adoption de mesures fortes en termes de réglementation et de responsabilité. Ainsi, le ministère américain du commerce a placé NSO Group sur sa liste des entités aux cyberactivités malveillantes. Apple et WhatsApp ont tous deux intenté des poursuites contre NSO devant les tribunaux américains pour avoir ciblé leurs utilisateurs.

Par ailleurs, plusieurs enquêtes et procès ont été ouverts en Inde, au Mexique, en Pologne, en Belgique et en France, tandis que le Parlement européen a lancé une commission d’enquête sur l’utilisation de Pegasus et de logiciels espions de surveillance équivalents. Cela n’a cependant pas empêché la liste de personnes illégalement espionnées par le logiciel israélien de s’allonger depuis un an.

 

Autres développements inquiétants : selon le Citizen Lab, des outils d’espionnage d’autres entreprises seraient susceptibles d’être utilisés à des fins de surveillance illégale au regard du droit international. Dans le même temps, selon les médias, Israël ferait pression sur l’administration Biden aux Etats-Unis pour retirer NSO de la liste des entités aux cyberactivités malveillantes.

La France, pourtant directement concernée par les révélations Pegasus, est restée bien silencieuse sur le sujet. Si l’enquête ouverte en juillet 2021 vient tout juste d’être confiée à un juge d’instruction, Emmanuel Macron aurait négocié avec les autorités israéliennes l’exclusion des numéros français des cibles potentielles du logiciel espion de NSO Group. Une réponse qui ignore totalement la portée globale du scandale et des effets dévastateurs de ces technologies sur les droits humains.

Les gouvernements doivent cesser de penser que le problème est dû à une seule entité nuisible et reconnaître que les outils de réglementation actuels ne sont plus adaptés. Une culture de l’impunité propre à la surveillance numérique ciblée s’est développée et doit être combattue de toute urgence.

De nouvelles technologies pour suivre l’évolution de la consommation énergétique et son impact

De nouvelles technologies pour suivre l’évolution de la consommation énergétique et son impact

 

L’industrie manufacturière consomme 54% de l’énergie mondiale et contribue à 20% des émissions de CO2 dans le monde*. Dans ce contexte émergent toutefois de nombreuses technologies liées à l’industrie 4.0 permettant des remontées de données précieuses. Objectif ? Aider les industriels à mieux suivre précisément leur consommation d’énergie, alerter des dérives et intervenir immédiatement, mais également améliorer la gestion de leurs déchets et leur consommation d’eau tout en impliquant leurs collaborateurs. Par Gilles Pacaud, Directeur Rockwell Automation France ( dans la Tribune)
Une réflexion sur les nouveaux outils pour mieux suivre l’évolution de la consommation énergétique et son impact dans l’industrie. Mais des outils dont certains pourraient aussi être utilisés par les particuliers NDLR
 
L’impact environnemental de l’industrie est pointé du doigt. En outre, les contraintes réglementaires se renforcent, à l’exemple de la directive Ecodesign de l’Union européenne, ensemble d’exigences obligatoires visant à améliorer l’efficacité énergétique et à réduire les émissions de gaz à effet de serre.Heureusement, les nouvelles technologies permettent aujourd’hui de rendre beaucoup plus efficiente l’usine et réduire l’empreinte énergétique d’un produit, depuis sa fabrication à sa fin de vie en passant par son utilisation. Les entreprises peuvent ainsi devenir plus « compliant » et se conformer aux exigences applicables en matière de santé, de sécurité, de performance et d’environnement. Ces technologies peuvent les aider à prendre en compte, dès leur conception l’ensemble du cycle de vie des produits, y compris l’installation, l’exploitation, la maintenance et la fin de vie.Des applications d’eau intelligentes permettent par exemple d’améliorer la qualité, l’efficacité et la sécurité des entités municipales et des industries à forte consommation d’eau, à la gestion et au recyclage des déchets pour permettre l’économie circulaire, de nombreuses solutions matures sont à la disposition des entreprises. Ces technologies renforcent la supplychain en donnant à l’entreprise une visibilité et un suivi de toutes les opérations nécessaires à la fabrication d’un produit et impliquent un maximum de personnes autour de l’impact environnemental.

Grâce à la technologie de contrôle et d’automatisation, un important Institut américain de recherche sur l’eau espère transformer le drainage minier acide en une ressource capable d’alimenter la plupart des appareils et systèmes modernes actuels. Les chercheurs ont conçu et construisent actuellement une usine chargée de traiter la contamination due au drainage minier acide et de renvoyer de l’eau propre dans les rivières et les ruisseaux tout en extrayant des éléments de terres rares et des minéraux essentiels.

Un fabricant de panneaux solaires possède aujourd’hui une usine contrôlée par une architecture de type Industrie 4.0 facilitant la communication entre machines et opérateurs, l’utilisation de l’intelligence artificielle et la connectivité de l’Internet des objets (IoT) afin de produire un degré supérieur d’automatisation, de précision et d’amélioration continue.

Des applications logicielles existent également afin d’aider les clients à gérer, signaler, contrôler et optimiser la consommation d’énergie dans leurs processus de production. À partir de tableaux de bord, les utilisateurs peuvent visualiser la consommation à tous les niveaux (site, zone, ligne et machine) et identifier les domaines à optimiser. Intelligentes et évolutives, ces plateformes collectent et intègrent de manière transparente les données de gestion de l’énergie aux systèmes de production, de contrôle et d’information.

Aussi, des contrats de services de durabilité reposant sur le numérique aident les usines à réduire les déchets et à surveiller, gérer et recycler leurs actifs de production d’une manière plus responsable. Autre sujet, la remise à neuf et la réparation d’équipements usagés font l’objet de programmes d’accompagnements. L’Association for Sustainable Manufacturing estime que cette remise à neuf (ou retrofit) permet d’économiser en moyenne 85% d’énergie, de l’eau et des matériaux utilisés par rapport à un produit nouvellement fabriqué.

Naturellement, le développement durable n’inclut pas uniquement le climat et la préservation de l’environnement. Il intègre pleinement l’humain, en particulier, dans le milieu professionnel. À ce titre, l’enquête annuelle Global Voices** a récemment démontré que 85% des personnes ont connu des niveaux plus élevés d’épuisement, tandis que 40% ont signalé une baisse de l’équilibre entre vie professionnelle et vie privée. Cet équilibre et le bien-être au travail apparaissent désormais comme des priorités et des composantes essentielles du développement durable.

 

* Selon le World Economic Forum (« Net-Zero in Manufacturing Value Chains Initiative »)

** Informations complémentaires dans le Rapport 2021 sur le développement durable de Rockwell Automation

123456...15



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol