Archive pour la Catégorie 'sciences'

Page 3 sur 14

Société-La fin de homme face à l’intelligence artificielle ?

Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Chat GPT: Des promesses françaises douteuses

Chat GPT: Des promesses françaises douteuses


Jean-Baptiste Bouzige, consultant en stratégie de données, doute des promesses politiques d’intelligence artificielle générative « à la française », et propose de concentrer les efforts sur des IA sur mesure, adaptées à des besoins spécifiques Quand il s’agit d’intelligence artificielle (IA) générative [capable de créer, à partir d’une simple instruction écrite, du texte, comme ChatGPT, ou des photos ultraréalistes, comme Midjourney], les réactions des pouvoirs publics français et européens font penser à l’une des plus célèbres fables de Jean de La Fontaine : La Grenouille qui se veut faire aussi grosse que le bœuf.
Lors des rencontres économiques d’Aix-en-Provence, le 8 juillet, le ministre de l’économie, Bruno Le Maire, a estimé que l’Europe devra avoir son OpenAI « sous cinq ans ». Une sortie qui rappelle celle du chef de l’Etat lors de la dernière édition de VivaTech, le 14 juin. A cette occasion, Emmanuel Macron expliquait au micro de CNBC que le développement des grands modèles de langage (comme ChatGPT) était une des priorités de la France. Une ambition compréhensible eu égard à leur potentiel économique.

Selon le cabinet McKinsey, l’IA générative pourrait créer chaque année une richesse supplémentaire comprise entre 2 600 et 4 400 milliards de dollars (environ 2 350 à 3 990 milliards d’euros) à l’échelle de la planète. D’ailleurs, les investisseurs ne s’y trompent pas : durant les cinq premiers mois de 2023, 12 milliards de dollars ont été investis dans ces IA. Essentiellement aux Etats-Unis, là où se trouvent les principales entreprises à l’origine de leur développement.

Car les entreprises américaines dans ce secteur présentent deux atouts uniques : l’antériorité de la recherche et le volume des fonds disponibles. Prenons le cas de Google. En plus d’avoir développé Bard, l’entreprise de Mountain View a dépensé 300 millions de dollars pour acquérir Anthropic et plus de 1 milliard de dollars dans Runway AI. Le tout en un semestre. Soit l’équivalent de l’enveloppe du plan IA pour la France présenté en 2018 !

Evidemment, les pouvoirs publics ont raison d’être ambitieux. En revanche, là où ils ont tort, c’est de vouloir rivaliser avec le « bœuf » américain dont nous n’avons ni la puissance, ni les moyens.

Comme l’a exposé le fonds d’investissement Andreessen Horowitz, un des plus influents de la Silicon Valley, dans son rapport « Who Owns the Generative AI Platform ? », la cartographie des acteurs de l’IA générative dessine trois groupes majeurs : les concepteurs des grands modèles de langage, les fournisseurs d’infrastructures, et enfin les entreprises qui développent des utilisations d’IA générative (« cas d’usage »).

OpenIA: des infos bidon !

OpenIA: des infos bidon !

ChaGPT donne lieu actuellement à de nombreux commentaires non seulement sur les perspectives mais aussi sur ces limites et ses dangers. Certains voient même le risque d’une disparition de l’homme quand d’autres n’imaginent avenir dans tous les domaines qu’à travers cette nouvelle technologie. La vérité est sans doute plus complexe. La vérité chat GPT est encore largement en apprentissage notamment du faîte de l’insuffisance des données recensées et de ses capacités d’interconnexion systémique. Pour preuve à la question posée : « quel inflation pour la France en 2023 » Open AI répond :

As of my last knowledge update in September 2021, I cannot provide you with the most current information on inflation in France for the year 2023. However, you can easily find up-to-date information on inflation rates in France by checking official sources such as the National Institute of Statistics and Economic Studies (INSEE) or reputable financial news websites. These sources regularly publish data on various economic indicators, including inflation rates, which can give you an accurate picture of the current inflation situation in France.

Bref pas vraiment de valeur ajoutée par rapport à Google. En outre l’intelligence artificielle renvoie au statistiques très contestées de l’INSEE concernant mesure des prix de la consommation ; des mesures très sous-estimées en période de forte inflation content tenu de la déformation structurelle du comportement des ménages.

Sciences-IA, illusion d’intelligence ?

Sciences-IA, illusion d’intelligence ?

Depuis l’apparition de Chat GPT, l’intelligence artificielle est devenue l’un des sujets les plus abordés. Entre admiration et peur, les utilisateurs ont souvent des idées reçues sur le mécanisme derrière cette nouvelle technologie. Professeure dans le domaine à Sorbonne Université, Laurence Devillers a décrypté ses capacités au micro d’Europe 1.

L’intelligence artificielle est au cœur de toutes les conversations depuis de nombreux mois. L’apparition du prototype conversationnel Chat GPT a eu l’effet d’une bombe dans le monde. Que ce soit pour faire la conversation ou demander un réel renseignement, des millions de personnes l’utilisent chaque jour dans le monde. Ses capacités, par leur puissance et leur précision, peuvent même inquiéter. Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, explique au micro d’Europe 1 que cette supposée supériorité est en fait une « illusion ».


Chat GPT, une « projection des capacités humaines »

L’intelligence artificielle a le pouvoir de maintenir une conversation comme un être humain, ce qui créé une « illusion d’intelligence » d’après la professeure. « Cette illusion d’intelligence va nous manipuler et c’est là où il faut faire très attention », poursuit-elle avant d’expliquer que la « machine ne fait que copier » et n’a « aucun sens sur ce qu’elle est en train de faire ». De ce fait, cette technologie ne possède pas d’émotions puisqu’il s’agit de « projections des capacités humaines ».

Ce sont ses capacités de langage qui incitent l’être humain à croire que cette dernière est plus intelligente et même plus émotive qu’elle ne l’est véritablement. Bien que Laurence Devillers avoue qu’il est difficile pour beaucoup de « faire la différence », elle confirme que le système même de l’intelligence artificielle n’a aucune forme de vie : « Il n’y a pas de conscience, il n’y a pas d’émotions, il n’y a pas d’intentions. »

La professeure en a profité pour ajouter que la manipulation déclenchée par diverses intelligences artificielles a déjà commencé, notamment via les réseaux sociaux avec les images modifiées. Dernièrement, de nombreuses photos fausses ont circulé sur internet, mettant en scène des personnalités publiques dans des situations incongrues. Une « coopération » avec les machines est donc nécessaire et passe notamment par « l’éducation » pour apprendre à mieux aborder cette nouvelle technologie.

Une application de l’IA devine les mots en analysant les sons du clavier

Une application de l’IA devine les mots en analysant les sons du clavier

D’ après un info du Figaro, Un groupe d’universitaires britanniques a mis au point un puissant algorithme pouvant déchiffrer les codes d’entrée grâce au bruit des doigts qui pressent le clavier, rapporte Phonandroid . Dans leur étude, nommée «une attaque par canal auxiliaire acoustique sur les claviers basée sur l’apprentissage profond », les chercheurs indiquent que l’IA serait fiable à 95%.

Pour connaître la clef d’accès, il suffit d’enregistrer une personne en train de taper son code confidentiel avec un microphone de smartphone. Une fois les sons captés, l’algorithme retranscrit les informations acoustiques en texte.

Pour les chercheurs, cette publication a pour objectif d’alerter sur la vulnérabilité des données personnelles. «L’omniprésence des émanations acoustiques des claviers en fait non seulement un moyen d’attaque facilement accessible, mais aussi un moyen d’attaque très efficace», écrivent-ils.

IA-Les risques de l’intelligence artificielle non maîtrisée

IA-Les risques de l’intelligence artificielle non maîtrisée

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

« Il y a quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

LES EXPERTS DÉPASSÉS

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

UNE CONFIANCE EN DÉLIQUESCENCE

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

UNE FUITE EN AVANT DÉBRIDÉE

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

IA, illusion d’intelligence ?

IA, illusion dintelligence ?

Depuis l’apparition de Chat GPT, l’intelligence artificielle est devenue l’un des sujets les plus abordés. Entre admiration et peur, les utilisateurs ont souvent des idées reçues sur le mécanisme derrière cette nouvelle technologie. Professeure dans le domaine à Sorbonne Université, Laurence Devillers a décrypté ses capacités au micro d’Europe 1.

L’intelligence artificielle est au cœur de toutes les conversations depuis de nombreux mois. L’apparition du prototype conversationnel Chat GPT a eu l’effet d’une bombe dans le monde. Que ce soit pour faire la conversation ou demander un réel renseignement, des millions de personnes l’utilisent chaque jour dans le monde. Ses capacités, par leur puissance et leur précision, peuvent même inquiéter. Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, explique au micro d’Europe 1 que cette supposée supériorité est en fait une « illusion ».


Chat GPT, une « projection des capacités humaines »

L’intelligence artificielle a le pouvoir de maintenir une conversation comme un être humain, ce qui créé une « illusion d’intelligence » d’après la professeure. « Cette illusion d’intelligence va nous manipuler et c’est là où il faut faire très attention », poursuit-elle avant d’expliquer que la « machine ne fait que copier » et n’a « aucun sens sur ce qu’elle est en train de faire ». De ce fait, cette technologie ne possède pas d’émotions puisqu’il s’agit de « projections des capacités humaines ».

Ce sont ses capacités de langage qui incitent l’être humain à croire que cette dernière est plus intelligente et même plus émotive qu’elle ne l’est véritablement. Bien que Laurence Devillers avoue qu’il est difficile pour beaucoup de « faire la différence », elle confirme que le système même de l’intelligence artificielle n’a aucune forme de vie : « Il n’y a pas de conscience, il n’y a pas d’émotions, il n’y a pas d’intentions. »

La professeure en a profité pour ajouter que la manipulation déclenchée par diverses intelligences artificielles a déjà commencé, notamment via les réseaux sociaux avec les images modifiées. Dernièrement, de nombreuses photos fausses ont circulé sur internet, mettant en scène des personnalités publiques dans des situations incongrues. Une « coopération » avec les machines est donc nécessaire et passe notamment par « l’éducation » pour apprendre à mieux aborder cette nouvelle technologie.

La fin de homme face à l’IA ?

La fin de homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Ingénierie solaire-: pour-des-règles-de-gouvernance

Ingénierie solaire-: pour-des-règles-de-gouvernance

par
Janos Pasztor

directeur exécutif de la Carnegie Climate Governance Initiative

Potentielle option d’urgence pour contrer l’emballement du réchauffement climatique, la modification du rayonnement solaire ne doit pas être discutée en catimini mais doit faire l’objet d’un débat public transparent, juge, dans une tribune au « Monde », Janos Pasztor, directeur exécutif de la Carnegie Climate Governance Initiative.

Parler aux diplomates des risques du changement climatique n’est pas nouveau pour moi. J’ai passé des décennies à l’Organisation des nations unies (ONU) à faire cela. Jamais, cependant, je n’ai rencontré le niveau d’inquiétude que j’entends maintenant dans les voix des hauts représentants gouvernementaux de plus de soixante pays, que mes collègues et moi avons rencontrés au cours des sept dernières années, pour discuter des lacunes en matière de gouvernance des nouvelles techniques qui pourraient modifier le climat.

Pourquoi l’évoquer maintenant, et pourquoi une telle inquiétude ? Selon le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), il est probable que le monde dépassera temporairement l’objectif de température de l’accord de Paris de 1,5 °C, même dans le cadre des trajectoires les plus ambitieuses de réduction des émissions. De plus, quelle que soit l’augmentation de température donnée, les impacts seront plus importants que prévu – ce qui nous amène vers des climats que l’humanité n’a jamais connus auparavant.

La modification du rayonnement solaire (MRS ou géo-ingénierie solaire) pourrait être une option d’urgence potentielle pour faire face temporairement aux risques de dépassement. L’approche la plus étudiée – et la plus controversée – consisterait à pulvériser des aérosols dans la stratosphère pour réfléchir la lumière du soleil loin de la Terre, refroidissant ainsi rapidement la planète. Si elle était développée et déployée, elle affecterait tous les pays du monde, mais pas tous de la même manière. Il faut toutefois noter qu’elle ne remplacerait pas la réduction urgente des émissions, l’élimination du carbone de l’atmosphère et le renforcement de l’adaptation.

Cependant, tout comme une planète surchauffée présente des risques sérieux, il en va de même pour la MRS. Ces risques seraient différents et comprendraient, par exemple, des dommages potentiels à la couche d’ozone, ou une perte de biodiversité si la MRS était brusquement interrompue. Son déploiement poserait également des problèmes éthiques et des risques de sécurité géopolitique, mais différents de ceux résultant des impacts d’une planète en surchauffe.

Il n’existe actuellement aucune gouvernance formelle, robuste et complète pour la recherche, les tests, ou la décision de déployer ou non la MRS. Toujours selon le GIEC, il s’agit d’un risque en soi.

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche

sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche


Boris Gralak, secrétaire général du Syndicat national des chercheurs scientifiques, estime, dans une tribune au « Monde », que ceux-ci sont maltraités par l’Etat en ce qui concerne leur rémunération et leur carrière, et que les conséquences sont à terme dangereuses pour la recherche française.

Quels que soient les domaines du savoir, la recherche est indispensable pour repousser les limites de la connaissance. Et il va de soi que nos sociétés ont besoin plus que jamais d’apporter des réponses aux questions considérables que posent la démocratie, la santé, la transition socio-écologique, l’innovation responsable… Et pourtant, malgré leur rôle essentiel pour la société et surtout pour son avenir, la recherche publique et les scientifiques sont particulièrement maltraités par l’Etat, et ce depuis plus de vingt ans.

La France s’était engagée sur le plan européen à consacrer, dès 2010, au moins 1 % de son produit intérieur brut (PIB) à la recherche publique. Or, non seulement les gouvernements successifs n’ont pas tenu cet engagement, mais, pire encore, ils ont imposé toute une série de réformes à contresens qui auront particulièrement dégradé les conditions de travail des scientifiques.

La dernière d’entre elles, la loi de programmation de la recherche du 24 décembre 2020, promettait – encore une fois – le respect de cet engagement : prenant acte du décrochage de la recherche, le fameux « 1 % du PIB » pour la recherche publique était enfin « programmé » ! Cependant, dès l’examen du projet de loi de programmation de la recherche, le Syndicat national des chercheurs scientifiques (SNCS-FSU) et d’autres organisations avaient montré que cette programmation pluriannuelle du budget de la recherche était insincère. La preuve hélas est là.

Outre le handicap que représente pour la recherche publique la dégradation des moyens de travail des scientifiques – il s’agit des femmes et des hommes chercheurs, enseignants-chercheurs, ingénieurs et techniciens de recherche ou en soutien à la recherche, qu’ils soient fonctionnaires ou contractuels –, nous voulons noter ici un aspect rarement évoqué : à savoir le fait que le sous-investissement chronique dans la recherche publique se traduit aussi par des rémunérations et des carrières indignes au regard des responsabilités, formations et diplômes de ces scientifiques.

Innovation: accepter le temps long

Innovation: accepter le temps long

« L’innovation technique ne se programme pas en fonction de finalités à court terme et rentables »
TRIBUNE
Gilles Garel

Professeur au Conservatoire national des arts et métiers

Muriel Le Roux

Historienne

« L’innovation résoudra tous nos problèmes. » Cette ritournelle messianique proclamée à chaque crise, selon laquelle l’innovation technique et les entrepreneurs innovants nous sauveront de la catastrophe, ne résiste pas à l’analyse des processus d’innovation par les sciences de gestion et par l’histoire, qui, plus que le concept d’innovation lui-même, questionnent celui de « rupture ». Même si cela déplaît aux industriels ou aux politiques, l’histoire rend en effet intelligibles les choix et les actions des acteurs sur un temps plus ou moins long. Or, face aux menaces écologiques, induisant des risques pour les démocraties, nous devons admettre que ce qui nous arrive résulte aussi de la manière dont nous innovons et dont nous considérons l’innovation.

Depuis Fernand Braudel et son ouvrage Civilisation matérielle, économie et capitalisme, réédité en 2022 chez Armand Colin, on sait que la maîtrise des moyens de transport et de l’énergie a toujours été la condition sine qua non des flux et des échanges. Ce sont eux qui ont structuré les mondialisations successives, les croissances économiques reposent sur ces flux physiques. Les entreprises assumant les fonctions de conception, de production et de diffusion, l’innovation joue bien un rôle majeur dans ces processus.

Prenons le cas du vaccin Pfizer-BioNTech, qui a été développé en douze mois, ce qui est effectivement sans précédent. A suivre certaines analyses, il s’agirait d’une « rupture », car, jusque-là, le développement d’un vaccin prenait environ dix ans. Mais il s’agit d’une analyse à courte vue sur la seule année 2020, relayée par les panégyriques nord-américains à des fins de prise de contrôle du marché du médicament. Car, oui, la santé est un marché.

Or, ces analyses n’évoquent que trop rarement l’aspect cumulatif des recherches menées pendant cinq décennies, notamment le rôle de l’Institut Pasteur, à Paris, à l’origine de l’ARN messager grâce aux travaux de François Jacob, d’André Lwoff et de Jacques Monod, qui a reçu le prix Nobel de médecine en 1965. Pfizer a bénéficié (sans payer aucune redevance) de l’effort initial de la recherche publique fondamentale. Sous la surface de l’exploit innovant, l’analyse de l’innovation permet de mettre au jour des couches plus profondes, sur des temps plus longs.

Sciences- Qu’est-ce qui est plus grand que l’infini ?

Sciences- Qu’est-ce qui est plus grand que l’infini ?
par
Julien Rouyer
Agrégé de mathématiques et doctorant en informatique., Université de Reims Champagne-Ardenne (URCA) dans The Conversation

Quel est le plus grand nombre que tu connais ? Quand on pose cette question à un tout jeune enfant, il répond souvent cent (100) ou mille (1 000), parfois un million (1 000 000). Mais, si on lui fait remarquer qu’il peut ajouter 1 à ce nombre et obtenir cent un (101) ou mille un (1 001) ou encore un million un (1 000 001), il réalise qu’il peut recommencer et obtenir à chaque fois un nombre encore plus grand. D’une certaine manière, mathématiquement, l’infini, c’est ça : pouvoir toujours ajouter 1 à n’importe quel nombre, aussi grand soit-il, et construire ainsi des nombres de plus en plus grands.

Votre avis compte ! Participez à notre grande enquête de lectorat
On en vient donc à la conclusion qu’il n’y a pas de nombre plus grand que tous les autres.

Cependant, en mathématiques, quand un objet n’existe pas, comme « le nombre qui serait plus grand que tous les autres nombres », on a toujours la liberté de l’inventer ! Il faut seulement que ce nouvel objet n’entraîne pas de graves paradoxes logiques, c’est-à-dire des résultats contradictoires.

On peut alors dire que l’infini est un nouveau nombre, différent de tous ceux qu’on peut construire en ajoutant 1 encore et encore : l’infini est ce qui est au bout de ce processus… qui ne s’arrête jamais ! On a donc décidé de créer cet objet, l’infini, qui représente un nombre plus grand que tous les autres, et on a choisi un symbole pour le représenter (comme le symbole 1 représente le nombre un, 2 le nombre deux, etc.). Ce symbole, c’est : ∞.

Mais alors, me diras-tu, Pénélope, qu’obtient-on si on ajoute 1 à l’infini ?

Un nombre plus grand que l’infini, lui-même plus grand que tous les nombres usuels ?

Puisque la place de « nombre plus grand que tous les autres » est déjà prise par ∞ et puisque ∞+1 est lui aussi un nombre plus grand que tous les autres, eh bien on n’a qu’à dire que « l’infini plus un », c’est encore l’infini et donc on peut écrire ∞+1=∞.

On déduit de cela que ∞+2=∞+1+1=∞+1=∞, et ainsi de suite ∞+3=∞, ∞+4=∞, etc.

Autrement dit, l’infini serait un nombre qui absorbe tous les autres, un peu comme un trou noir absorbe et fait « disparaître » toute la matière qui s’en approche…

C’est bien joli tout ça mais c’est drôlement abstrait. Concrètement, c’est quoi l’infini ? Voilà le problème : l’infini est une construction de l’esprit humain, un concept mathématique utile aux progrès de la science autant qu’un concept philosophique. L’infini est, par essence, quelque chose d’abstrait, et certainement une preuve de la puissance de l’intelligence humaine, capable de concevoir des objets qui n’existent pas dans la nature.

L’infini est une idée qui permet de représenter le fait d’aller très loin ou d’attendre très longtemps, quel que soit le contexte. Si on s’intéresse aux étoiles et aux planètes, l’infini, ce serait plutôt des milliards de milliards de kilomètres.

L’infini est une chimère : dans le monde physique dans lequel on vit, l’infini n’existe pas : le nombre d’atomes dans l’univers est fini (ils ne sont pas en quantité infinie). Les ressources en eau sur Terre ne sont pas infinies non plus. Selon les théories scientifiques qui ont émergé depuis les travaux d’Einstein il y a 100 ans, même l’univers lui-même est fini : il est en expansion, de plus en plus grand à chaque instant qui passe depuis sa naissance lors du Big Bang il y a 14 milliards d’années (l’âge de l’univers n’est pas infini) : il a un bord, une limite qui s’éloigne de plus en plus de nous. Qu’y a-t-il en dehors de l’univers, au-delà des limites de l’univers ? Mystère infini…

Finalement, pour répondre à cette épineuse question « qu’est-ce qui est plus grand que l’infini ? », je ne vois qu’une seule réponse : l’esprit humain.

Fusion nucléaire : principe et avenir ?

Fusion nucléaire : principe et avenir ?

Pour obtenir des réactions de fusion, plusieurs pistes de recherche ont été empruntées par les scientifiques. Et parmi elles, deux méthodes concentrent la majeure partie des talents et des capitaux : la fusion par confinement inertiel par laser et la fusion par confinement magnétique.Un papier de Romain Segond dans l’Opinion

L’emballement médiatique récent concernait la première solution, qui consiste précisément à reproduire les conditions de densité extrême de l’hydrogène qui sont à l’origine de la création des étoiles. Or ces expériences ne semblent pas calibrées pour produire de l’énergie à l’échelle de nos besoins. Elles servent surtout à augmenter nos connaissances pour améliorer nos programmes de simulation de la dissuasion nucléaire.

Pour opérer une véritable transition énergétique et tenter de contenir le réchauffement climatique, les espoirs s’orientent donc vers la seconde solution : la fusion magnétique. Elle consiste moins à compresser les atomes d’hydrogène qu’à les introduire dans un plasma dont la température varie entre 100 et 150 millions de degrés. Ces conditions extrêmes sont nécessaires pour que les particules qui se rencontrent, fusionnent et libèrent de l’énergie.

Pour mieux comprendre la transformation qui s’opère au niveau des noyaux lors d’une réaction de fusion, discerner les différentes méthodes explorées par les chercheurs pour la reproduire en laboratoire, et sonder dans quelle mesure ces développements technologiques vont révolutionner nos systèmes énergétiques, voire devenir cruciaux pour lutter contre le changement climatique, nous avons interrogé Alain Bécoulet, qui dirige le domaine ingénierie du projet ITER (International Thermonuclear Experimental Reactor).

Quelle est la différence entre la fission et la fusion nucléaire ?

« La fission consiste à casser un gros noyau, en l’occurrence au-delà du fer, par une collision avec un neutron – ou un autre noyau – qui déstabilise le noyau et le casse en deux. Mais l’énergie qui est stockée dans un noyau peut aussi être libérée d’une autre façon : on prend de tout petits noyaux – de l’hydrogène – et on essaie de les coller l’un à l’autre. »

Qu’est-ce que la répulsion coulombienne et comment la vaincre ?
« En tant que noyaux, ils sont chargés positivement, à cause du fait qu’ils sont constitués de protons et de neutrons – les neutrons ne sont pas chargés mais tous les autres le sont. Donc si j’essaye de les rapprocher, comme deux pôles identiques d’un aimant, ils vont se repousser. Depuis très loin ils se sentent et se repoussent de plus en plus lorsqu’on se rapproche. Or si je veux faire entrer en ligne de compte la réaction nucléaire, il faut que j’aille suffisamment près pour qu’une autre force entre en jeu, les attire et cette fois-ci, les fasse fusionner. »

Qu’est-ce qu’un isotope de l’hydrogène ?
« C’est un atome auquel, dans le noyau, je vais rajouter ou enlever des neutrons. On ne modifie donc pas la charge globale ni le nombre d’électrons. Le deutérium, c’est de l’hydrogène, donc un proton avec son électron autour, et au proton on lui colle un neutron. Le tritium, c’est toujours dans la famille de l’hydrogène – un proton – mais on lui rajoute deux neutrons dans le noyau. La réaction de fusion la plus facile à réaliser, c’est la fusion de ces deux isotopes de l’hydrogène : le deutérium et le tritium. »

Comment fonctionne la fusion par confinement inertiel ?
« C’est la solution qui consiste à mimer le soleil. Or on ne va pas pouvoir faire un nuage suffisamment large pour qu’il s’effondre sur lui-même et fusionne. Mais on peut quand même prendre une petite bille de mélange deutérium-tritium et l’écraser très fort. Pour ce faire, les pistons ne vont pas marcher mais les faisceaux laser vont fonctionner. Le principe c’est donc de soumettre d’un seul coup la petite bille à une pression radiative extrêmement violente et très rapide – quelques milliardièmes de seconde. A ce moment-là elle va s’effondrer, la densité va monter, la température également, et la fusion va s’enclencher. Aujourd’hui, toutes ces expériences sont faites pour calibrer notre physique, nos codes, dans ce qu’on appelle le programme de simulation de la dissuasion nucléaire. Elles ne sont pas faites pour, a priori, se diriger vers de la production d’énergie. »

Comment fonctionne la fusion par confinement magnétique ?
« Il s’agit de confiner un plasma en utilisant un champ magnétique. Quand une particule rencontre un champ magnétique, elle va se faire piégée en tournant autour. Donc si on est assez intelligent pour faire une ligne magnétique qui se referme sur elle-même dans une géométrie finie, la particule va tourner et ne pourra jamais s’échapper de son champ magnétique. Donc on chauffe le milieu et si on y introduit plusieurs atomes, ils vont finir par se rencontrer et fusionner. »

Qu’est ce qu’un plasma ?

« Il existe quatre états de la matière. L’état solide, liquide et gazeux que tout le monde connaît, et un quatrième état, lorsqu’on continue à chauffer un gaz très fort, qu’on appelle plasma. C’est un gaz qui a été tellement chauffé que les collisions, entre les atomes, finissent par éplucher leur cortège électronique. C’est-a-dire que les électrons vont être éjectés par le fait que les atomes se tapent les uns contre les autres lorsque la vitesse et l’énergie sont suffisantes. On va donc obtenir un mélange, une soupe de noyaux et d’électrons qui ne sont plus attachés les uns aux autres. Ce milieu est nécessaire pour que les noyaux se rencontrent directement et ne soient plus gênés par leurs électrons. »
Les plus vus

L’intelligence artificielle va-t-elle remplacer l’être humain ?

L’intelligence artificielle va-t-elle remplacer l’être humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

12345...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol