Archive pour le Tag 'processus'

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

L’automobile, prise au piège de l’internationalisation des processus de production

L’automobile, prise au piège de l’internationalisation des processus de production

 

 

D’une certaine manière,  l’automobile est pris au piège de l’internationalisation des processus de production. La voiture n’est pourtant pas technologiquement un produit très élaboré en dehors des gadgets il n’a guère évolué depuis une centaine d’années. Certes quelques progrès ont été effectués concernant la consommation en allégeant notamment le poids des véhicules. Pour le reste ce sont essentiellement des phénomènes de mode.

 

Pourtant on a cru bon de faire éclater les processus de production à l’échelle mondiale. Avec la crise covid, ces processus très complexes mais aussi très coûteux notamment du point de vue environnemental sont remis  en cause avec la désorganisation de la logistique. Cela d’autant plus que ces processus de production fonctionnent sur le principe du juste à temps, c’est-à-dire en l’absence pratiquement de tout stock. Les chaînes approvisionnées en permanence par des camions plusieurs fois par jour.

 

De nombreuses pièces destinées à l’assemblage manquent actuellement où sont retardés notamment des composants électroniques qui viennent le plus souvent d’Asie. Des composants électroniques dans beaucoup sont d’ailleurs inutiles et n’apportent guère de valeur ajoutée à l’automobile sinon qu’ils justifient des prix élevés pour garantir la rentabilité de l’industrie automobile.

 

La question se pose évidemment de la relocalisation d’un certain nombre de productions qui n’ont nullement besoin d’être fabriquées à des milliers et des milliers de kilomètres des lieux de consommation. Plus fondamentalement ,  le problème de la conception technique d’automobile conçue pour rouler à peu près toutes à 200 km à l’heure quand les vitesses sont limitées à 80, à 90 ou à 130 sur autoroute. En plus avec une sophistication technologique inutile et coûteuse.

Pour une mutation des processus de production au service d’une croissance durable

Pour une mutation des processus de production au service d’une croissance durable

 

.

C’est  seulement en nous  dirigeant vers la transformation écologique de nos outils productifs que nous pourrons retrouver un chemin de croissance pérenne estime Patrick Blethon, CEO du groupe Saur.

 

Les dernières prévisions économiques présentées la semaine dernière par la Commission européenne présagent de mois difficiles à venir. Et la multiplication des reconfinements qui a lieu sur l’ensemble du continent ne risque pas d’éclaircir ce tableau pessimiste. Déjà, dans sa dernière note de conjoncture publiée début octobre, l’INSEE annonçait un nouveau tassement du PIB français sur le dernier trimestre 2020, conduisant à une récession de 9 % sur l’année. Comme l’écrit l’office statistique, nous sommes actuellement « une économie diminuée ».

Évidemment, il peut difficilement en être autrement dans le contexte que nous traversons. La seconde vague épidémique nous frappe de plein fouet, la consommation pâtit des nouvelles mesures sanitaires et, en l’absence d’un vaccin, l’avenir reste – c’est peu dire – incertain. – (Déclaration dans la Tribune)

Expertise : Quelle méthode dans le processus décisionnel (Cécile Philippe)

Expertise : Quelle méthode dans le processus décisionnel  (Cécile Philippe)

 

Dans une interview à Reuters repris par la Tribune, Cécile Philippe, Institut économique Molinari  s’efforce de répondre à cette question relative au processus décisionnel

«

 

« En tant que présidente d’un institut de recherche, le sujet de l’expertise m’intéresse au plus haut point parce que nous exerçons nous même une forme d’expertise et que, d’autre part, nous nous intéressons à des sujets qui traitent justement de cette question, qu’il s’agisse de décider de remplacer les jugements humains par des algorithmes ou d’évaluer la qualité de notre système éducatif. De très nombreux sujets touchent de près ou de loin à cette question. Or, un article rédigé en 2009 par deux figures majeures dans ce domaine est particulièrement éclairant et permet, avec nuance, de cerner le contour entre de bonnes intuitions et d’autres qui s’avèrent erronées de façon systématique.

La question de l’expertise peut générer des sentiments ambivalents. On reste bouche bée devant le pompier qui parvient à contrôler un incendie dans un immeuble sauvant ainsi tous ses habitants ou devant le pilote Sully Sullenberger qui en 2009 parvient à poser en urgence son avion sur l’Hudson river et sauve ainsi ses 150 passagers. Dans un cas comme dans l’autre, leur expertise est exceptionnelle. Mais le sentiment est inverse quand on constate que les prévisions d’un certain nombre d’experts se révèlent moins fiables que celles réalisées par des modèles statistiques. Dans des Ted talk célèbres, Hans Rosling, médecin et statisticien, montrent à quel point nous pouvons être ignorants de faits importants tout en étant convaincus de la véracité de nos dires. Dans l’un d’eux, il dit : « J’ai démontré que les étudiants suédois les plus brillants avaient, statistiquement parlant, moins de connaissances sur le monde que les chimpanzés. »

Ces deux phénomènes font l’objet d’analyses approfondies au sein de communautés dont les chefs de file sont pour l’une Daniel Kahneman, lauréat du prix Nobel d’économie en 2002 et auteur du livre Système 1 / Système 2. Les deux vitesses de la pensée et pour l’autre, Gary Klein, psychologue renommé auteur notamment de Sources of Power: How People Make Decisions (1999). Ce dernier est un pionnier dans l’approche dite de la prise de décision naturaliste tandis que le second développe l’approche des biais cognitifs et des heuristiques. Tout semble opposer ces deux approches, sauf que les deux auteurs respectent immensément leur travail respectif et ont donc cherché pendant plusieurs années à comprendre leurs points de convergence et de divergence.

Débat scientifique exemplaire

Au-delà d’être exemplaire de ce que le débat scientifique peut faire de mieux, leur article permet de décrire deux phénomènes aussi réels l’un que l’autre qui ne s’appliquent pas aux mêmes situations. De fait, la plupart de nos jugements sont intuitifs et nous permettent d’agir dans le monde. Certains de nos jugements sont bons tandis que d’autres sont assez systématiquement erronés. Comment l’expliquer ? De fait, le développement d’une réelle expertise, celle de ces infirmières qui détectent des septicémies chez de très jeunes nourrissons avant même que les résultats sanguins reviennent positifs, nécessite que certaines conditions soient réunies. Il faut d’abord que l’environnement présente un certain niveau de régularités, d’invariants. Il faut ensuite que le futur expert puisse les découvrir, les discerner en accumulant de l’expérience. Enfin, il faut aussi qu’il reçoive un feedback rapide qui lui permette de lier perception et action dans un sens ou dans un autre. Lorsque ces conditions font défaut, il est difficile de développer une expertise. Le développement de l’expertise est tout à fait compatible avec un univers incertain comme dans le cas du poker ou des conflits armés. Il faut néanmoins pouvoir y décerner des régularités.

C’est ainsi que les astronomes, les pilotes d’essai, les physiciens, les mathématiciens, les infirmières, les médecins sont typiquement des professions dont le niveau d’expertise peut être très élevé tandis que dans des professions comme celles de courtiers, de psychologues cliniques, de juges, de recruteurs ou d’analystes du renseignement, cette expertise serait beaucoup plus rare.

Savoir les limites de ses compétences

Une caractéristique de l’expert compétent c’est qu’il sait en général les limites de ses compétences et requiert l’avis d’autres experts quand il sort de son domaine. La difficulté vient de ce que nos jugements – bons ou mauvais – sont tous intuitifs, automatiques, rapides, formulés presque sans effort et il n’est pas aisé d’être bon juge en la matière. Car nos intuitions suivent facilement des opérations mentales qui peuvent nous induire en erreur.

Les auteurs donnent l’exemple de l’erreur que commettent la plupart des personnes lorsqu’ils essaient de résoudre le problème suivant : une balle et une batte de baseball coûtent à elles deux 1,10 euro. La batte coûte 1 euro de plus que la balle. Combien coûte la balle ? Réponse à la fin de l’article. Il est fort probable qu’intuitivement vous ayez envie de répondre 10 centimes. Ce n’est malheureusement pas la bonne réponse. L’approche par les biais cognitifs abonde de ces exemples où nous tombons dans le panneau parce que plutôt que de faire une analyse rigoureuse qui nécessite des efforts, nous recourrons à des intuitions qui donnent la mauvaise réponse ou la mauvaise évaluation. Quand il s’agit d’évaluer des cas en psychiatrie ou de recruter des officiers, la chose est d’importance.

Méthode premortem

Ce constat – qui n’est d’ailleurs pas nié par les tenants de l’approche naturaliste – conduit à formuler un certain nombre de recommandations visant à améliorer la prise de décision. Notamment, les théoriciens des biais cognitifs sont très favorables aux algorithmes là où il est pertinent d’y recourir comme dans l’octroi de crédits bancaires. Côté approche naturaliste, beaucoup plus méfiante à l’égard des algorithmes, la méthode premortem est considérée comme un outil utile. Il s’agit pour un groupe d’établir un plan puis de considérer a priori qu’il a échoué et d’analyser les raisons de cet échec. Cet exercice permet de générer plus de critiques et d’éviter la suppression des opinions dissonantes, phénomène que l’on observe quand une organisation se lance dans un projet.

L’analyse de l’expertise doit donc être nuancée et suppose une compréhension fine de l’environnement dans lequel elle opère. Les deux courants ont des leçons à nous enseigner, en particulier dans l’adoption avisée des algorithmes ou dans le domaine éducatif, a priori le champ rêvé de l’expertise. »

 

Réponse : 5 centimes puisque la batte de baseball vaut un euro de plus, soit 1,05 euro

Aéroport : processus de privatisation

Aéroport : processus de privatisation

 

Progressivement l’Etat et les collectivités locales  vont se désengager de la gestion des aéroports en les privatisant. Après ADP où l’Etat a cédé 10%, c’est au tour de la province en commençant par Toulouse.. Michel Sapin, ministre des Finances, et Arnaud Montebourg, ministre de l’Economie, ont annoncé par un communiqué publié ce 11 juillet, avoir « demandé à lAgence des Participations de l’Etat d’engager une procédure de cession de la participation de l’Etat au capital de la société Aéroport Toulouse-Blagnac ».  Cette opération se réalisera dans le cadre d’une procédure d’appel d’offres, qui va lui permettre de céder immédiatement jusqu’à 49,99 % du capital, assortie d’une option de vente pour le solde. L’Etat détient au total 60% du capital d’Aéroport Toulouse Blagnac, aux côtés de la Chambre de commerce et d’industrie de Toulouse qui en détient 25%, et des collectivités territoriales (Région Midi-Pyrénées, Département de Haute-Garonne, Communauté urbaine de Toulouse Métropole) qui en possèdent chacune 5%. La Chambre de commerce et d’industrie « sera également invitée à céder une fraction de sa participation aux côtés de l’Etat, si elle en exprime l’intention », précise le communiqué.  Le gouvernement publiera prochainement le cahier des charges régissant la procédure, qui devrait aboutir à la sélection de l’acquéreur en novembre prochain Bercy souligne que cette ouverture du capital ne compromettra pas l’avenir économique de l’aéroport ni les exigences de service public aéroportuaire, l’Etat conservant son rôle de régulateur. Le gouvernement avait déjà cédé l’année dernière 9,5% d‘Aéroports de Paris (ADP) au profit du groupe de BTP Vinci et de l’assureur Predica (groupe Crédit Agricole), une opération qui lui a rapporté 738 millions d’euros (303 millions à l’État et 435 millions au Fonds stratégique d’investissements – FSI). L’Etat reste majoritaire dans le capital du gestionnaire d’aéroports (50,63%).

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol