Archive pour le Tag 'Sciences'

Page 3 sur 3

Sciences- Un ordinateur quantique : Pour quand ?

Sciences- Un ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Sciences-Un plan quantique de 1,8 milliard

Sciences-Un plan quantique de 1,8 milliard

La France fixe un objectif très ambitieux de mettre au point le premier ordinateur quantique. Doté de 1,8 milliard d’euros sur cinq ans dont 1 milliard directement financé par l’Etat,. Des chiffres qui dépassent les attentes

. « J’ai rarement vu une stratégie d’Etat sur une technologie aussi précise, complète, bien ficelée et bien financée. Honnêtement, je suis aux anges« , confie à La Tribune Elie Girard, le directeur général du groupe d’informatique Atos, l’un des pionniers mondiaux du quantique.

En exploitant les propriétés de la matière à l’échelle de l’infiniment petit (atome, ion, photon, électron…), les technologies quantiques portent la promesse d’ordinateurs qui ridiculiseront les plus puissants des supercalculateurs actuels. Cela signifie que le quantique est promis à briser de nombreux verrous et devrait permettre de s’attaquer enfin à des défis aujourd’hui insolubles.

Les sciences face à la transition écologique (fondation Hulot)

Les  sciences face à la transition écologique (fondation Hulot)

Dans cet ouvrage publié chez Odile Jacob, une trentaine de scientifiques, membres de la Fondation Nicolas Hulot, mettent en garde contre les usages contestables qui peuvent être faits du discours et de l’autorité scientifiques pour servir des intérêts économiques.( Le Monde)

Livre.

 

 Jamais la science n’a été aussi présente dans l’espace public, son capital symbolique capté de toutes parts, sa prestigieuse caution âprement revendiquée par les responsables politiques, les capitaines d’industrie, les lobbyistes ou les organisations militantes. Et pour cause : l’activité scientifique nourrit autant l’innovation technique et la croissance qu’elle permet d’évaluer l’impact – bénéfique ou délétère – de tout l’éventail des activités humaines sur la santé ou l’environnement. On le voit avec la crise due au Covid-19 : la science a pris tant de place qu’elle se confond parfois avec le politique, semblant indiquer au pouvoir la seule ligne de crête praticable pour affronter une menace.

 « La » science ? Le conseil scientifique de la Fondation Nicolas Hulot (FNH) a judicieusement préféré parler « des » sciences, au pluriel. Pour ses vingt ans d’existence, cet aréopage d’une trentaine de scientifiques engagés signe un ouvrage qui interroge la place des sciences dans une société supposée entamer une transition écologique.

Diversité de disciplines

Au reste, le conseil scientifique de la FNH n’aurait guère pu parler de « la » science, sans se trouver légèrement à contre-emploi. Parmi les membres du conseil, on trouve en effet des philosophes, des économistes, des climatologues, des historiens, des écologues, des mathématiciens ou encore des juristes. Et même un astrophysicien. Cette diversité de disciplines et donc de sensibilités scientifiques donne à l’ouvrage son originalité, et toute la profondeur de son analyse.

Y sont explorés, dans six chapitres largement autonomes, les rôles que peuvent jouer l’acquisition et la transmission du savoir dans la transition écologique – bien que celle-ci, omniprésente dans les discours, demeure encore largement absente des politiques publiques.

Le premier de ces rôles est bien sûr celui de l’expertise et de la consolidation des connaissances acquises. Avec, comme exemple majeur, celui du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), le célèbre panel de scientifiques qui, depuis la fin des années 1980, rassemble et synthétise l’ensemble du savoir disponible sur le changement climatique. Et fixe le consensus scientifique sur lequel l’action politique peut – ou pourrait – s’appuyer.

Mais les auteurs n’en restent pas à cet exemple qui, à lui seul, donnerait de l’activité scientifique une image par trop idéale, comme si la connaissance nécessaire à l’action faisait toujours l’objet de consensus apaisés, projetant sur la société une rationalité bienfaisante. Au contraire : le conseil de la FNH met aussi en garde sur les usages contestables qui peuvent être faits du discours et de l’autorité scientifiques, notamment par le détournement du doute méthodique par des intérêts économiques contrariés. Car le doute, disent en substance les auteurs, s’il est l’un des moteurs de la démarche scientifique, peut aussi s’avérer un frein puissant et entraver la prise de décision, en instrumentalisant les incertitudes inhérentes à l’acquisition de toute connaissance.

« Défendre la liberté en sciences humaines et sociales »

« Défendre la liberté en sciences humaines et sociales »

 

Après le licenciement de la sociologue Christine Fassert, un collectif de chercheurs dénonce, dans une tribune au « Monde », le retour de méthodes autoritaires et de censure dans les organismes nucléaires.( Notons que les méthodes autoritaires affectent aussi le privé par exemple quand l’économiste Élie Cohen est victime de pressions de la part de Veolia pour son opposition au regroupement entre cette société et Suez)

 

Tribune.

 

 Contrôler, surveiller, circonscrire ou contrebalancer toute information et toute recherche interrogeant le fonctionnement de la filière nucléaire a constitué pendant longtemps une sorte de réflexe chez les promoteurs du nucléaire, avant tout soucieux d’acceptabilité sociale de ce secteur à haut risque. Une série de réorganisations au sein des agences d’expertise et de régulation, commencées dans les années 1990 en lien avec les impacts de la catastrophe de Tchernobyl, ont donné lieu, notamment, à la création d’entités « indépendantes », l’Institut de radioprotection et sûreté nucléaire (IRSN) en 2001 et l’Autorité de sûreté nucléaire (ASN) en 2006.

Ces changements ont pu laisser penser que les principales tensions critiques entre opérateurs du nucléaire et mondes de la recherche appartenaient au passé : des travaux de sciences sociales, menés à la fois en interne et en externe, pouvaient aborder de multiples aspects de l’énergie nucléaire.

En 2012, lorsque la sociologue Christine Fassert a été recrutée par le département des sciences humaines et sociales de l’IRSN, il s’agissait pour l’institut d’ouvrir un nouvel espace de recherches rendues nécessaires par la catastrophe de Fukushima de mars 2011. L’expérience n’a visiblement pas été concluante. En effet, en juin 2020, Christine Fassert a été licenciée pour « comportement inadapté » et « insubordination récurrente avec défiance vis-à-vis de sa hiérarchie », qualifications qui masquent difficilement une reprise de contrôle sur la production des connaissances et des énoncés sur le nucléaire.

Les recherches de Christine Fassert avaient pourtant pour objet d’observer et questionner les vulnérabilités, les actions et les décisions engendrées par la catastrophe nucléaire japonaise. Dans plusieurs secteurs du nucléaire, des témoignages font part de pressions de plus en plus fortes s’exerçant non seulement sur les chercheurs liés au secteur ou les doctorants bénéficiant de financement des agences nucléaires mais également sur les unités de recherche externes liées par des contrats de recherche.

Obstructions hiérarchiques

Pendant plusieurs années, Christine Fassert a fait face à des obstructions de la part de sa hiérarchie pour engager et mener à bien ses projets, difficultés liées à ce que l’IRSN considère sous les catégories sensibles de « gouvernance des risques nucléaires » ou de « gestion post-accidentelle ». Son travail de recherche fut à maintes reprises remis en cause par des interventions directes de sa hiérarchie, laquelle a, dans les derniers temps, dressé des obstacles à la publicisation de ses résultats.

Canicule : la faute au changement de climat (Institut des sciences du climat)

Canicule : la faute au changement de climat (Institut des sciences du climat)

Robert Vautard, le directeur de l’Institut Pierre-Simon-Laplace des sciences du climat, explique le lien entre canicule et dérèglement général du climat (interview France Info)

Est-ce que ces températures caniculaires sont des signaux inquiétants ?

  • Robert Vautard : Les températures les plus fortes sont en augmentation depuis plusieurs décennies et on est certain que c’est dû au changement climatique. Les températures comme 35°C, dans les décennies précédentes, ça arrivait environ une dizaine de jours par an en France. Aujourd’hui, on est déjà à 30 ou 40 jours par an au-dessus des 35°C. Au milieu du XXIe siècle, on s’attend à ce que des températures de 40 degrés soient dépassées quasiment tous les ans en France. Donc, on va vers des températures très fortes, avec des sécheresses qui seront de plus en plus marquées.
  • Qu’est-ce que vous enseigne l’étude de ces phénomènes de canicule ?
  • Les canicules en France sont vraiment le marqueur principal du changement climatique. On le voit, on le ressent tous les étés maintenant depuis 2004. Ces canicules nous montrent à quel point nos sociétés sont vulnérables aux changements climatiques. On voit les problèmes de sécheresse qui ont lieu cette année et le degré d’urgence qu’il y a à combattre ce changement climatique par la réduction des émissions de gaz à effet de serre.
  • Est-ce qu’il y a une volonté politique d’agir sur le réchauffement climatique ?
  • Je suis scientifique, je ne suis pas du tout politologue mais il y a des politiques d’adaptation au changement climatique. Il y a un plan canicule qui est là. Il y a aussi des mesures qui sont prises pour réduire les émissions de gaz à effet de serre. Aujourd’hui, on n’est pas sur la trajectoire globalement de réduire les émissions pour arriver à 1°C ou 2°C de réchauffement. Donc, il faut faire bien davantage mais au niveau global.
  • Est-ce qu’il y a d’autres signaux inquiétants dans le monde en 2020 ?
  • On a vu un phénomène nouveau en Sibérie avec des températures extrêmes. On a eu aussi un épisode dans l’Arctique au mois de juillet avec des températures atteignant plus de 20°C degrés. Ce qui provoque toute une ribambelle de conséquences, notamment la fonte de la glace de mer. Cette année, on est même dans une diminution record de la glace de mer en Arctique. On dépasse le record de 2012. Et ça a pour effet d’accélérer encore davantage le changement climatique puisque la banquise réfléchit le rayonnement solaire et permet à la Terre d’un peu moins réchauffer.
  • Est-ce qu’il faut s’habituer à des étés plus chauds et des hivers de plus en plus doux ?
  • Les étés vont être de plus en plus chauds quoi qu’il arrive, quelles que soient les mesures qu’on prend au niveau climatique. D’ici vingt ans à trente ans, les températures vont encore augmenter d’au moins 1°C à 2°C. C’est inéluctable. En revanche, les actions que l’on prend aujourd’hui pour réduire le changement climatique auront un effet très net au-delà de 2050. Pour nos petits-enfants, finalement. L’enjeu, il est là, il est d’atteindre soit 2°C de hausse environ à la fin du siècle, soit 4 à 5 °C. Et il y a une énorme différence entre un climat 2°C plus chaud et un climat 4°C plus chaud. Ces différences sont absolument considérables.

L’enjeu des sciences cognitives pour l’école (Stanislas Dehaene)

L’enjeu des sciences cognitives pour l’école (Stanislas Dehaene)

 

L’enjeu des sciences cognitives est développé par  Stanislas Dehaene professeur au Collège de France, président du Conseil scientifique de l’Éducation nationale dans une interview à La Tribune.

 

 

- Que peut-on attendre des sciences cognitives ?

STANISLAS DEHAENE - Nous commençons à comprendre comment le cerveau apprend. Ces grands principes de l’apprentissage sont utiles pour les enseignants et pour les apprenants eux-mêmes. Il y a des techniques génériques et des techniques spécifiques, comme pour la lecture où nous avons des recommandations très spécifiques. Le Conseil scientifique a également proposé des évaluations particulières, pour la lecture notamment, pour raccourcir le cycle entre la détection des difficultés et l’intervention.

Qu’est-ce que ne pourront pas faire les sciences cognitives ?

Il y a un certain fantasme, lié à la confusion entre sciences cognitives et neurosciences, l’idée qu’on pourra voir en détail le cerveau de chaque enfant. En réalité, ce ne sont pas tellement les outils des neurosciences qui vont servir les méthodes éducatives. Les neurosciences introduisent des grands principes fondamentaux et le chemin est long pour arriver à la salle de classe, où ce ne seront pas des outils d’imagerie cérébrale qui vont nous servir. La psychologie est au centre des questions d’éducation, pas les neurosciences.

Quelle est justement la différence entre les sciences cognitives et les neurosciences ?

Les sciences cognitives sont un grand ensemble, elles essaient de comprendre le fonctionnement de l’esprit humain. À l’intérieur, les neurosciences en sont une sous-composante qui s’intéresse à la mécanique. Ce qui nous intéresse, c’est le comportement des enfants et le fait de tirer le maximum du potentiel cérébral qu’ont tous les enfants.

Que répondez-vous aux critiques qui s’inquiètent de la proéminence des neurosciences ?

Dans le Conseil scientifique, il y a finalement peu de neuroscientifiques. Et d’ailleurs on ne fait pas des neurosciences, mais de l’imagerie cérébrale. Les vraies neurosciences, c’est regarder les neurones individuels, les synapses, les molécules, les neurotransmetteurs. Personne ne fait cela au sein du Conseil scientifique, car ce n’est pas pertinent. On ne va pas réduire les enfants, mais au contraire les aider à s’épanouir, notamment les enfants d’origine sociale défavorisée dont le cerveau n’a pas été nourri par un environnement enrichi. La connaissance scientifique n’est pas parfaite, mais c’est la seule manière d’avancer.

Quel est le bilan du Conseil scientifique pour sa première rentrée ?

Dans notre rôle de conseil, nous sommes au service des enfants. Nous avons aidé le Département d’évaluation et de suivi des programmes à refondre les évaluations en CP et en CE1, pour détecter les difficultés de lecture et de calcul. Tous les écoliers de France en bénéficient dès cette année et on pourra proposer des interventions spécifiques en cas de difficultés. Autre chantier en cours, l’adaptation des examens pour les enfants qui ont des handicaps sensoriels, attentionnels ou moteurs, pour se concentrer sur ce qu’on veut évaluer en rendant les autres aspects périphériques. Par ailleurs, nous sommes en train de faire une synthèse du corpus de nouvelles connaissances en sciences cognitives et d’en faire un Mooc pour la formation continue des enseignants, pour les écoles supérieures du professorat et de l’éducation (Espé) et pourquoi pas pour les parents. L’école des cadres de l’Éducation nationale est également très demandeuse. Il y a trop de connaissances qui ne sont pas encore partagées avec les enseignants.

Quels sont les rapports entre stress, image de soi et apprentissage ?

On sait que le stress bloque l’apprentissage, les neurones ne peuvent plus bouger. Le syndrome d’anxiété mathématique est bien décrit dans la littérature scientifique. Tous les élèves ont des capacités mathématiques, le reste est une construction sociale. L’école doit valoriser les enfants en leur disant qu’ils ne savent pas tout, mais qu’ils vont apprendre. La méta-cognition, cette image qu’on a de soi-même, joue un rôle fondamental dans les apprentissages. Dans tout cours, il y a le contenu et le méta-contenu, ce que j’apprends sur moi-même.

Pour vous, le langage est un enjeu central.

Un des cinq groupes de travail du Conseil scientifique réfléchit à la pédagogie et à l’apprentissage du langage. Il y a trop d’inégalités en France et c’est peut-être la question centrale dans ce domaine. On a une bonne école, qui est l’une des pires du monde pour réduire les inégalités sociales. L’un des enjeux est l’exposition au langage. Notre rôle ne se cantonne pas à l’Éducation nationale car des études montrent qu’expliquer aux parents est une des actions les plus efficaces.

Votre dernier nouveau livre sur l’homodocens [l'homme enseignant, ndlr] et sa prodigieuse capacité d’apprentissage vient de sortir. Que voulez-vous dire dans ce livre ?

Mon livre est une réponse à cette demande d’accès aux connaissances. J’explique les grands axes du fonctionnement du cerveau et comment fonctionne l’apprentissage, en comparant avec l’intelligence artificielle. D’ailleurs, le cerveau est encore inégalé ! J’explique des principes scientifiques, pas des méthodes. L’un de ces principes est de ne pas faire que des cours magistraux, mais d’alterner avec la mise à l’épreuve : le test fait partie de l’apprentissage. Je propose ainsi 13 grands principes. Ne sous-estimons pas les enfants, c’est sans doute le thème principal de mon livre. Ce sont des super-ordinateurs, donnons-leur les données dont ils ont besoin. C’est le travail de l’école et des parents.

Que dites-vous aux parents ?

Mon livre leur explique comment fonctionne le cerveau de leur enfant. J’aimerais aussi qu’ils comprennent l’importance de l’alternance entre veille et sommeil. Pendant la nuit, le cerveau fait tourner des algorithmes d’apprentissage. Les neurones rejouent ce qu’il s’est passé dans la journée. Le cerveau consolide et fait des abstractions qui le mènent à des découvertes. Par des jeux, des activités et des lectures, les parents peuvent prolonger les apprentissages. Voici une recommandation simple : parlez à votre enfant, les yeux dans les yeux et répondez à ses questions avec un vocabulaire qui convient. Tout n’est pas joué à trois ans. La plasticité cérébrale diminue autour de la puberté, on a du temps.

___

BIBLIOGRAPHIE

(*) Le dernier ouvrage de Stanislas Dehaene est « Apprendre ! Les talents du cerveau, le défi des machines », aux Editions Odile Jacob, (septembre 2018), 384 pages, 22,90 euros.

Affaires politico financières : la fin de la tolérance (Daniel Boy, professeur de sciences politiques)

Affaires politico financières : la fin de la tolérance (Daniel Boy, professeur de sciences politiques)

 

L’affaire Fillon, maintenant les affaires Ferrand et du Modem semblent marquer  la fin de la tolérance de l’opinion publique à l’égard des affaires politico- financières. Le professeur de sciences politiques Daniel Boy explique pourquoi. Ceci étant, ce n’est pas forcément la fin de la tolérance de la justice car on peut s’étonner du nombre considérable d’affaires encore non jugées ou simplement enterrées.

 

« L’affaire Fillon et bien d’autres analogues dans le passé récent – Urba Gracco en 1990, affaire Elf en 1994, emplois fictifs de la mairie de Paris en 2011, affaire Cahuzac en 2012, etc. – posent une question intrigante : pourquoi des responsables politiques ou des « puissants » (chefs d’entreprise, dirigeants syndicalistes, sportifs ou artistes renommés), que l’on doit supposer raisonnablement lucides, se laissent-ils prendre à enfreindre grossièrement des règles d’éthique qui, au jour de l’affaire, paraissent au public fondamentales? Bien souvent on a le sentiment que les responsables mis en cause pour des manquements graves à l’éthique plaident implicitement une sorte de bonne foi qui leur fait dire, ou au moins suggérer : pourquoi me condamner, moi, aujourd’hui, puisqu’ »on a toujours fait comme ça »? À quoi tient cette confusion entre le permis et l’interdit parmi des responsables que l’on pourrait imaginer attentifs aux exigences de la société? A deux raisons, sans doute complémentaires. La première tient à l’opacité des systèmes de pouvoir qui, jusqu’ici, garantissait une probable impunité à ceux qui en bénéficiaient. Rappelons ici que la notion de « transparence » trouve ses origines dans les mouvements d’idée du Siècle des Lumières (voir à ce sujet Sandrine Baume, « La transparence dans la conduite des affaires publiques. Origines et sens d’une exigence« ) et s’affirme comme une exigence de visibilité du pouvoir destinée à combattre l’arbitraire. Dans les sphères du pouvoir (quelle que soit sa nature), il est sans doute bien difficile d’échapper au sentiment d’être hors d’atteinte des regards du public. Pourtant, le développement d’une presse libre a, depuis longtemps, donné naissance à des investigations aboutissant souvent à des mises en cause convaincantes. Mais au-delà des vertus du Canard enchaîné ou, plus récemment, du succès de telle émission télévisée consacrée au dévoilement de « scandales » (Cash Investigation sur France 2), il apparaît que la technologie de la recherche d’informations a gagné une nouvelle puissance avec la naissance des Wikileaks et d’autres techniques utilisant de façon sophistiquée la quête d’information au sein des big data. Aujourd’hui, aussi puissant soit-il, nul ne devrait se croire à l’abri d’une investigation peut-être dommageable. La seconde raison qui explique la relative surdité des puissants quant aux exigences de l’éthique tient probablement à un décalage de plus en plus patent entre ce que les responsables estiment devoir à la société et ce que la société exige réellement d’eux. Sous l’effet de transformations structurelles, au premier chef, l’augmentation des niveaux d’éducation, la demande d’éthique de la société a considérablement changé au cours des vingt dernières années. Au-delà de ces transformations structurelles la répétition, ad nauseam, des mêmes affaires (prises d’intérêt illégales, conflits d’intérêts méconnus) lasse le public et le rend désormais hypersensible à toute annonce d’une nouvelle crise d’éthique. Il n’est pas sûr que les puissants aient pris la mesure de ces évolutions majeures. Puisqu’ »on a toujours fait comme ça » et que, en fin de compte, le public dans le passé s’est montré assez indulgent, pourquoi ne pas continuer comme nos prédécesseurs ? On l’affirme ici : parce que le degré de tolérance de la société a profondément changé. Les conséquences directes de ce hiatus entre conceptions de l’éthique se lisent dans l’image terriblement dégradée du monde politique dont témoigne, par exemple, le Baromètre de la Confiance politique du Cevipof. Comment remédier à cette situation ? Sans doute peut-on espérer que les puissants, d’eux-mêmes, prennent conscience des nouvelles exigences d’éthique de la société et, si nécessaire, modifient en conséquence leurs comportements. L’autre solution, sans doute plus lourde, mais infiniment plus sûre, consiste à modifier inlassablement les règles légales de la transparence. Elle passe par des procédures souvent jugées inquisitoriales par les puissants : transparence des revenus et du patrimoine, déclaration des intérêts, faisant l’objet, si nécessaire, de vérifications réelles, etc. Le remède est amer. Mais le mal est grave parce qu’il contribue au développement d’un populisme qui mine les fondements du système démocratique. »

Affaires politicofinancières : la fin de la tolérance (Daniel Boy, professeur de sciences politiques)

Affaires politicofinancières : la fin de la tolérance (Daniel Boy, professeur de sciences politiques)

 

L’affaire Fillon marquerait la fin de la tolérance de l’opinion publique à l’égard des affaires politico- financières. Le professeur de sciences politiques Daniel Boy explique pourquoi dans un papier du JDD. Ceci étant, ce n’est pas forcément la fin de la tolérance de la justice car on peut s’étonner du nombre considérable d’affaires encore non jugées ou simplement enterrées.

 

« L’affaire Fillon et bien d’autres analogues dans le passé récent – Urba Gracco en 1990, affaire Elf en 1994, emplois fictifs de la mairie de Paris en 2011, affaire Cahuzac en 2012, etc. – posent une question intrigante : pourquoi des responsables politiques ou des « puissants » (chefs d’entreprise, dirigeants syndicalistes, sportifs ou artistes renommés), que l’on doit supposer raisonnablement lucides, se laissent-ils prendre à enfreindre grossièrement des règles d’éthique qui, au jour de l’affaire, paraissent au public fondamentales? Bien souvent on a le sentiment que les responsables mis en cause pour des manquements graves à l’éthique plaident implicitement une sorte de bonne foi qui leur fait dire, ou au moins suggérer : pourquoi me condamner, moi, aujourd’hui, puisqu’ »on a toujours fait comme ça »? À quoi tient cette confusion entre le permis et l’interdit parmi des responsables que l’on pourrait imaginer attentifs aux exigences de la société? A deux raisons, sans doute complémentaires. La première tient à l’opacité des systèmes de pouvoir qui, jusqu’ici, garantissait une probable impunité à ceux qui en bénéficiaient. Rappelons ici que la notion de « transparence » trouve ses origines dans les mouvements d’idée du Siècle des Lumières (voir à ce sujet Sandrine Baume, « La transparence dans la conduite des affaires publiques. Origines et sens d’une exigence« ) et s’affirme comme une exigence de visibilité du pouvoir destinée à combattre l’arbitraire. Dans les sphères du pouvoir (quelle que soit sa nature), il est sans doute bien difficile d’échapper au sentiment d’être hors d’atteinte des regards du public. Pourtant, le développement d’une presse libre a, depuis longtemps, donné naissance à des investigations aboutissant souvent à des mises en cause convaincantes. Mais au-delà des vertus du Canard enchaîné ou, plus récemment, du succès de telle émission télévisée consacrée au dévoilement de « scandales » (Cash Investigation sur France 2), il apparaît que la technologie de la recherche d’informations a gagné une nouvelle puissance avec la naissance des Wikileaks et d’autres techniques utilisant de façon sophistiquée la quête d’information au sein des big data. Aujourd’hui, aussi puissant soit-il, nul ne devrait se croire à l’abri d’une investigation peut-être dommageable. La seconde raison qui explique la relative surdité des puissants quant aux exigences de l’éthique tient probablement à un décalage de plus en plus patent entre ce que les responsables estiment devoir à la société et ce que la société exige réellement d’eux. Sous l’effet de transformations structurelles, au premier chef, l’augmentation des niveaux d’éducation, la demande d’éthique de la société a considérablement changé au cours des vingt dernières années. Au-delà de ces transformations structurelles la répétition, ad nauseam, des mêmes affaires (prises d’intérêt illégales, conflits d’intérêts méconnus) lasse le public et le rend désormais hypersensible à toute annonce d’une nouvelle crise d’éthique. Il n’est pas sûr que les puissants aient pris la mesure de ces évolutions majeures. Puisqu’ »on a toujours fait comme ça » et que, en fin de compte, le public dans le passé s’est montré assez indulgent, pourquoi ne pas continuer comme nos prédécesseurs ? On l’affirme ici : parce que le degré de tolérance de la société a profondément changé. Les conséquences directes de ce hiatus entre conceptions de l’éthique se lisent dans l’image terriblement dégradée du monde politique dont témoigne, par exemple, le Baromètre de la Confiance politique du Cevipof. Comment remédier à cette situation ? Sans doute peut-on espérer que les puissants, d’eux-mêmes, prennent conscience des nouvelles exigences d’éthique de la société et, si nécessaire, modifient en conséquence leurs comportements. L’autre solution, sans doute plus lourde, mais infiniment plus sûre, consiste à modifier inlassablement les règles légales de la transparence. Elle passe par des procédures souvent jugées inquisitoriales par les puissants : transparence des revenus et du patrimoine, déclaration des intérêts, faisant l’objet, si nécessaire, de vérifications réelles, etc. Le remède est amer. Mais le mal est grave parce qu’il contribue au développement d’un populisme qui mine les fondements du système démocratique. »

 

Sciences. Des gènes néandertaliens chez certains hommes…… surtout chez l’homo politicus extremicus

Sciences. Des gènes néandertaliens chez certains hommes…… surtout chez l’homo politicus extremicus 

Encore une découverte qui contredit celle de la scientifique  Nadine Morano. La race blanche européenne ne serait pas pure.  Pire,  elle contiendrait encore 1 à 3% de gènes néandertaliens. Selon l’équipe de vrais scientifiques de David Reich, des mutations génétiques connues pour être associées à des caractères spécifiques chez l’Homme moderne pourraient aussi trouver une origine chez l’homme de Neandertal. Ce serait le cas pour des maladies à composante génétique, comme le diabète ou la maladie de Crohn, mais aussi pour certains comportements. Dès lors on comprend mieux pourquoi certains homo politicus se montrent auusi primaires, haineux et stupides. C’est évidemment la honte pour la pureté de la « race blanche » d’autant que l’homo sapiens d’origine africaine lui n’a pas été contaminé avec l’homme de Neandertal.  L’ADN de l’homme de Neandertal, retrouvé chez l’homme d’aujourd’hui, notamment dans les gènes influençant les caractéristiques de la peau, a pu aider à sa survie, montrent deux nouvelles études publiées mercredi. De précédentes études ont établi que les humains modernes d’origine européenne et asiatique ont hérité en moyenne de 1 à 3% du génome de l’homme de Neandertal, un cousin du genre Homo apparu il y a environ 400.000 ans en Eurasie et éteint voilà 30.000 ans. Les humains d’ascendance africaine n’ont, eux, que peu ou pas d’ADN de Neandertal parce qu’il n’y a pas eu de croisement entre leurs ancêtres Homo sapiens et l’homme de Neandertal, qui vivait en Europe et en Asie. L’héritage peut sembler mince ramené à l’échelle individuelle, mais selon une nouvelle étude publiée ce mercredi dans la revue américaine Science, ce serait au total 20% du génome néandertalien qui subsisterait globalement dans les populations modernes d’Europe et d’Asie. Cette étude a été réalisée par Benjamin Vernot et Joshua Akey (Département des Sciences du Génome, Université de Washington) à partir du génome de 379 Européens et 286 personnes d’Asie de l’est. La revue britannique Nature publie de son côté une autre étude sur l’héritage de Neandertal, menée par David Reich (Faculté de médecine de l’Université Harvard, Boston). Avec ses collègues, dont Svante Pääbo, directeur du département d’anthropologie génétique de l’Institut Max Planck, il a analysé les variations génétiques de 846 personnes d’ascendance non-africaine, 176 personnes d’Afrique sub-saharienne et d’un Néandertalien vieux de 50.000 ans, dont la séquence du génome a été publiée en 2013. Malgré des travaux séparés et des méthodes différentes, les deux équipes ont trouvé de grandes régions du génome moderne non-africain dépourvues d’ADN néandertalien, et d’autres au contraire où l’héritage de l’homme de Neandertal était plus riche que prévu. Selon les chercheurs, cette répartition serait le résultat de la sélection naturelle: l’homme moderne aurait évincé de son patrimoine génétique les éléments de l’homme de Neandertal qui lui étaient nuisibles. En revanche, l’héritage génétique qui subsiste de l’homme de Neandertal a dû lui apporter un avantage adaptatif. Les chercheurs ont en revanche identifié deux régions du génome, impliquées dans les testicules et le chromosome X, où l’homme de Neandertal n’a pas laissé son empreinte. Selon eux, cet apport génétique aurait représenté une menace pour la fertilité masculine et a donc dû être effacé par un processus de sélection naturelle. Conclusion l’homo politicus extremicus risque de se reproduire encore !

Sciences : greffe de neurones possible ? La classe politique est sauvée !

Sciences : greffe de neurones  possible ? La classe politique est sauvée !

Une grande nouvelle scientifique avec cette possibilité de greffer des neurones, aujourd’hui sur la souris, demain sur l’homme, après demain sur les politiques. D’une certaine manière ce sera une opération sauvetage d’un système politique  obsolète dont la dégénérescence est largement responsable de la crise française. La greffe a déjà été un succès des animaux  dont des souris. Des neurones de souris implantés dans le cerveau des oligarques seraient déjà un progrès. Des chercheurs ont donc réussi à réparer une partie du cerveau de souris. Une zone au niveau du cortex visuel qui était endommagée. Pour cela, ils ont cultivé des cellules souches embryonnaires pour les transformer en cellules neuronales et ils les ont implantées dans le cortex de souris. Une avancée prometteuse pour l’homme.  Une équipe de chercheurs franco-belges s’est rendue compte que certaines zones du cerveau tentaient de s’autoréparer en cas de lésion. Les chercheurs ont donc eu l’idée de stimuler cette autoréparation. Pour cela, ils ont cultivé des cellules souches embryonnaires pour les transformer en cellules neuronales et ils les ont implantées dans le cortex de souris. Le cortex c’est la partie superficielle du cerveau où se traite la vision, l’audition, les mouvements… Au bout d’un an, ils ont vu que la greffe avait été efficace sur 61 % des animaux, dont le cortex visuel s’était remis à fonctionner normalement. Chez les animaux où la greffe n’a pas bien fonctionné, des tumeurs sont apparues, ainsi que des amas de cellules non différenciées.  »Notre approche est d’essayer de greffer des neurones en bonne santé pour remplacer la région du cerveau lésée. On appelle cela une thérapie cellulaire par transplantation, » explique Afsaneh Gaillard, professeur à l’université de Poitiers et responsable d’une équipe de recherche Inserm sur le cerveau qui a travaillé sur le projet.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol