Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours. En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.
par Sibylle Turo,Docteur en Psychologie Cognitive et Postdoctorante projet HUT, Université de Montpellier et Anne-Sophie Cases, Professeur, laboratoire MRM Université de Montpellier, Université de Montpellier dans The Conversation
Pourquoi s’inquiéter des interruptions numériques ?
L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).
Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.
L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.
On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.
Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.
Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.
Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est « motivée » par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.
Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.
Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.
Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.
Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.
Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.
Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.
L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.
La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.
La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).
Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.
Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode « focus » de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.
En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.
Sciences: Comment le cerveau a-t-il évolué ?
La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).
par Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation
Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).
L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.
Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.
Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.
Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.
Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.
À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.
Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.
Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.
Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».
Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.