Archive pour le Tag 'complémentarité'

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Les technologies d’Intelligence Artificielle proposent des outils très performants, mais la qualité de leur emploi dépend de la personne qui les utilise. Par Emmanuel Olivier, directeur général et membre du directoire d’Esker.( dans La Tribune)

Le 30 novembre dernier, OpenAI lançait ChatGPT, la dernière version de son Intelligence Artificielle (IA) générative. En quelques jours à peine, cette révolution a provoqué un raz-de-marée médiatique riche d’enseignements sur le fonctionnement de l’IA. On parle, certes, d’un outil performant, mais on lui attribue des capacités quasi magiques de création suivies par une substitution massive des emplois existants. Qu’en est-il vraiment au quotidien dans les entreprises ?

La réalité est plus prosaïque, mais les performances de l’IA permettent des gains de productivité dont les entreprises auraient tort de se passer. Plusieurs concepts se cachent derrière le terme générique d’IA, qui existe en réalité depuis plus de 10 ans. En premier lieu vient le Machine Learning ou l’apprentissage automatique. On le retrouve à la base de nombreux processus, les entreprises font du Machine Learning sans le savoir.

Prenons l’exemple de la reconnaissance de caractères ou d’images dans un process de numérisation de commandes clients. Le système va extraire des données pertinentes (dont le numéro de commande, l’adresse de livraison, les quantités associées, les références, etc.) à partir d’e-mail, de PDF, d’images, voire de fax pour les injecter dans le système d’information. Parfois, il va se tromper, confondant une date avec le numéro d’un bon de commande ou vice-versa. L’intervention humaine permettra alors de rectifier l’erreur et le système, fort de son dispositif de Machine Learning, s’en souviendra pour la prochaine fois.
Ainsi, en analysant les corrections de l’utilisateur, l’algorithme s’ajuste automatiquement afin d’augmenter la précision du processus d’extraction au fil du temps. Plus les interactions entre l’IA et la supervision humaine sont nombreuses, plus elles permettent de converger vers une extraction parfaite et totalement automatique des données.

Le deuxième pilier de l’IA est le Deep Learning, qui consiste à apprendre à la machine à effectuer une tâche sans nécessairement coder un algorithme qui lui explique précisément comment faire. De la même manière que si vous montrez trois ou quatre arbres à un jeune enfant, il saura rapidement identifier un nouvel arbre, même s’il est différent des précédents. Pour une machine, la différence est considérable puisqu’il lui faut observer des dizaines de milliers d’arbres pour être aussi performante. Le Deep Learning nécessite donc énormément de données validées.

Cependant, cette technologie peut être utilisée pour trier des informations entrantes. Par exemple, dans un projet de dématérialisation de factures fournisseurs, vous établissez une adresse e-mail générique pour que vos fournisseurs vous envoient leur facture. À la longue, l’adresse dédiée à l’envoi des commandes par les clients se retrouve souvent polluée par des pubs, des réclamations, des demandes de devis… sources de confusion, de perte de temps et d’inefficacité.

Jusqu’à un passé récent, le seul moyen de s’en sortir était de requérir le service d’un humain en chair et en os pour vérifier chaque e-mail et réexpédier les requêtes vers le bon service, ou, simplement, supprimer les spams. Avec le Deep Learning, il devient possible d’automatiser ce processus et donc de se passer d’une intervention humaine pour une tâche pour le moins fastidieuse.

Détection de signaux faibles
Troisième pilier, les IA Générative, façon Chat GPT, permettent d’aider les responsables de relation client à générer, rapidement, des réponses pertinentes. En réalité, la plupart des questions se ressemblent : « Où se trouve ma commande ? » « Quand serai-je livré ? » « Avez-vous bien reçu mon mail ? » On peut utiliser ChatGPT pour comprendre la question et aller chercher dans les systèmes d’informations de l’entreprise les éléments de réponse appropriés, les récupérer et proposer une réponse écrite formatée au responsable du Service Client avant son envoi. Ces gains de temps sur des tâches administratives permettent d’allouer le temps des responsables à des tâches plus intéressantes et moins chronophages.

L’intérêt technique de ces outils capables de séduire les programmeurs et les technophiles ne doit pas faire oublier leur intérêt pratique pour les entreprises. Les réponses à ces deux questions doivent aiguiller leur réflexion : à quoi ça sert ? Pouvons-nous en profiter ?

Une des possibilités reconnues est la détection de signaux faibles pouvant avoir un impact important sur la rentabilité d’une entreprise. Dans la gestion du besoin en fonds de roulement, découvrir à temps de petites variations est très apprécié par les directions financières : des changements dans les délais de paiement d’un client, dans la dynamique de variation de ses commandes dans le temps (en diminution ou en forte hausse), le tout en fonction de sa note de crédit. Là encore, l’intervention humaine est primordiale.

Deux points clefs sont à retenir pour l’utilisation de l’IA dans les sociétés : tout d’abord, elle va fortement affecter leur environnement de travail ainsi que leur productivité. Ensuite, ce n’est qu’un outil dont la réussite est régie par les qualités de la personne qui l’emploie : avoir un pinceau et de la peinture ne suffit pas à reproduire le plafond de la chapelle Sixtine de Michel-Ange. Les fantasmes de l’élimination de l’espèce humaine à la faveur de ChatGPT peuvent produire de bons scénarios de films de science-fiction, mais la réalité est heureusement plus sereine.

Robotisation et humains: quelle complémentarité ?

Robotisation et humains: quelle complémentarité ?

par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier dans The Conversation

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.
Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie
Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l’auteur
Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND
Travailler côte à côte
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Les premiers robots à entrer dans nos maisons ne sont pas humanoïdes. Roman Pyshchyk/Shutterstock
Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains
La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain
Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Robots et humains: quelle complémentarité ?

Robots et humains: quelle complémentarité ?

par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier dans The Conversation

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.
Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie
Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l’auteur
Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND
Travailler côte à côte
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Les premiers robots à entrer dans nos maisons ne sont pas humanoïdes. Roman Pyshchyk/Shutterstock
Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains
La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain
Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Pour une complémentarité EPS et culture olympique ?

 Pour une complémentarité EPS et culture olympique ?

Maxime Scotti, professeur d’éducation physique et sportive, rappelle dans une tribune au « Monde » que si sport et EPS sont en mesure de participer à améliorer la place du sport et de l’activité physique dans notre société, il reste nécessaire de les distinguer.

Tribune. 

 

Les récentes interventions du ministre de l’éducation Jean-Michel Blanquer vantant les mérites du sport à l’école dans les réussites sportives aux Jeux olympiques de Tokyo ont provoqué de vives réactions de la part des sportifs. Certains, à l’instar du basketteur Evan Fournier, affirmant qu’ils ne devaient rien à l’école, et d’autres au contraire, comme Martin Fourcade, défendant l’école dans l’accompagnement sportif qu’elle leur avait apporté. Il semble donc important aujourd’hui de faire un point sur les finalités du sport à l’école.

Qu’y a-t-il de si différent entre le badminton pratiqué en éducation physique et sportive (EPS) et celui des Jeux olympiques ? La distinction semble pourtant importante. Combien d’élèves ont entendu dire « je ne suis pas prof de sport, je suis professeur d’EPS » ?

La culture sportive est bien ancrée chez les enseignants d’EPS, dont la plupart sont issus du milieu sportif et de l’entraînement. Chacun s’étant engagé dans la filière Sciences et techniques des ­activités physiques et sportives (Staps) par amour du sport, ils ont été formés à une multitude d’activités faisant d’eux des sportifs polyvalents et des pédagogues capables d’adapter leur enseignement pour répondre à des problématiques locales. « Profs de sport » ils le sont, tout autant que « profs d’EPS ». Car ce qui compte, c’est ce qu’ils font vivre à leurs élèves au quotidien par l’utilisation des activités physiques, sportives et artistiques, olympiques ou non.

L’éducation physique et sportive n’a pas pour enjeu de former des champions. Elle répond à des problématiques du moment (la santé, l’écologie, etc.) tout en faisant vivre des expériences marquantes, collectives et communes à des millions d’élèves qui leur permettent de comprendre pourquoi un arbitre siffle une faute, d’être impressionnés face à une figure de gymnastique, ou de comprendre la valeur collective de la victoire même lorsqu’il s’agit d’un sport individuel.

 

Si l’EPS peut se vanter d’une chose, ce n’est peut-être pas de la formation d’une élite sportive, mais de tous ces pratiquants et supporteurs lucides et cultivés prêts à supporter leur nation. Chacun ayant eu une expérience singulière dans ces activités.Il est étonnant d’apprendre que l’objectif « 30 minutes d’activité physique quotidienne à l’école primaire » est une nouveauté, alors que les programmes du primaire prévoient trois heures d’EPS par semaine soit quarante-cinq minutes par jour. Plus ambitieux encore que les nouveaux objectifs fixés.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol