Archive pour le Tag 'mythes'

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : limites et mythes

 

Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Mythes et limites du télétravail

 

Mythes et limites du télétravail

Pour certains experts la gestion de la mobilité réduite pourrait passer par la quasi généralisation du télétravail. Or il faut bien mesurer les limites de cette possibilité. En effet en septembre à peu près 15 % des salariés utilisaient le télétravail. Un moyen qui pourrait concerner au mieux 30 % de la population concernée. En clair, 70 % des autres travailleurs ne peuvent effectuer leurs tâches uniquement par téléphone,  sur ordinateur et par Internet.

 

Certes, la France a vu son industrie grosse consommatrice de main-d’œuvre s’écrouler en une vingtaine d’années, certes le cœur de la croissance du pays repose sur le développement des services et du tourisme pour autant nombre de métiers exige une présence physique humaine près des lieux de production. Imaginez que la grande majorité des salariés pourrait recourir au télétravail relève du mythe. Un mythe cultivé dans les salons et les salles de rédaction des médias qui ont une vision très restrictive et très mondaine de la réalité sociale et économique. Il faut sans doute encourager compte tenu de la période le travail effectué depuis le domicile mais on ne remplacera pas l’intérêt de la présente humaine voire son caractère incontournable.

 

 

 

 

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol