Archive pour le Tag 'Nouvelles'

Page 6 sur 15

Sciences: nouvelles cathédrales ?

Sciences: nouvelles  cathédrales ?

Dans une tribune au « Monde »,  Stéphane Van Damme , (Professeur d’histoire des sciences à l’Ecole normale supérieure (Paris), retrace l’évolution des infrastructures de recherche, jadis promesses de modernisation infinie, aujourd’hui outils incontournables d’une géopolitique de la science.

Un hymne à la science internationale, nouvelles cathédrales,  un peu coloré de corporatisme NDLR

Tribune  

Dans quelles mesures les infrastructures scientifiques sont-elles un des piliers de la politique de recherche ? A l’occasion du 20e anniversaire du Forum stratégique européen sur les infrastructures de recherche (Esfri), un colloque organisé à l’Académie des sciences, à Paris, le 25 mars, a rappelé les réalisations concrètes de la recherche européenne dans ce domaine, du synchrotron de l’ESRF à Grenoble utilisé en archéologie et en paléontologie à la spectroscopie de la source de spallation européenne (ESS) en construction à Lund (Suède), en passant par l’European Social Survey en sciences sociales.

Cet anniversaire nous invite à revenir sur le champ des infrastructure studies qui s’est affirmé depuis la fin des années 1990. On doit à Geoffrey C. Bowker et Susan Leigh Star d’avoir reconceptualisé la notion d’infrastructure pour montrer qu’elle recoupe aussi bien des réalités physiques et matérielles comme des équipements, des instruments que des concepts et des normes qui visent à classer et hiérarchiser les flux d’informations. En insistant sur les pratiques de coopération et de coordination de l’activité scientifique, les infrastructures matérialisent une dimension relationnelle des sciences.

Certes, la notion d’infrastructure n’est pas nouvelle puisqu’elle apparaît dans le vocabulaire scientifique de l’ingénieur comme dans le lexique philosophique avec Marx dès le XIXe siècle. Au XXe siècle, elle sera associée aux champs de l’économie et de la planification. Elle est souvent considérée comme impure, partagée entre le monde de la recherche et le monde des décideurs publics et du management.

Pour les historiens des sciences, les infrastructures posent une double difficulté : elles sont célébrées dans des grands discours qui lissent les difficultés à imposer ces projets, les anomalies, voire les défaillances ; elles sont le plus souvent perçues comme invisibles dans le temps ordinaire de la recherche. Sociologues et historiens ont ainsi bien mis en évidence ce paradoxe des infrastructures oscillant entre l’imaginaire du « sublime » et de la grandeur et les représentations d’infrastructures en ruine.

Dans les années 2000, le terme « infrastructure » va resurgir de manière massive dans le vocabulaire étatique, accolé aux adjectifs « vitale » ou « critique »

Sur une perspective longue, ces études opposent l’émergence, dans le sillage de la révolution scientifique, d’une révolution de l’organisation des sciences à l’absence d’une logique toujours fonctionnelle qui présidait à leur création. C’est l’époque où se multiplient aussi les petites technologies intellectuelles qu’ont en commun les sciences et les premières bureaucraties : des fiches de papier aux listes. Des grandes cathédrales des sciences du XIXe siècle aux équipements géants de la big science des années 1950, elles sont désormais associées à une nouvelle économie de la promesse, indicateurs de prospérité et d’efficacité. C’est le moment d’émergence des grands systèmes techniques qui annoncent une modernisation infinie.

 

Le Pen: Le soutien de nouvelles couches sociales

 

 Le Pen: Le soutien de nouvelles couches sociales

 

La candidature d’Eric Zemmour n’a pas constitué un handicap insurmontable pour la tête de liste du Rassemblement national, qui a progressé de près de deux points par rapport à son score de 2017, analyse le politiste Florent Gougou, dans une tribune au « Monde »

 

Tribune.

 

 Ce n’est plus une surprise. Pour la deuxième fois consécutive, Marine Le Pen participera au second tour de l’élection présidentielle. Pour la troisième fois sur les cinq dernières présidentielles, la droite radicale [terme consacré dans le champ des sciences sociales] sera en situation d’accéder à l’Elysée. Le 21 avril 2002, la sidération dominait. Le 23 avril 2017, la banalité se profilait. Le 10 avril 2022, l’ordinaire s’est imposé.

Les contours d’un nouveau monde politique se dessinent. Pour la deuxième fois consécutive, Marine Le Pen retrouvera Emmanuel Macron au second tour. L’opposition entre « mondialistes » et « nationaux », pour reprendre les termes de la candidate du Rassemblement national (RN), entre « progressistes » et « nationalistes », pour reprendre les termes du président de la République sortant, semble être devenue la principale ligne d’affrontement dans la vie politique française au niveau national. Imposer ce nouveau dualisme était un objectif assumé (et partagé) par les deux protagonistes depuis 2017. Les résultats du premier tour ont brutalement rappelé aux forces de gauche, une nouvelle fois écartées du second tour, qu’ils sont en passe d’y parvenir.

Avec plus de 23 % des suffrages, Marine Le Pen réalise la meilleure performance d’une candidature de droite radicale à l’élection présidentielle, progressant de près de 2 points par rapport à son score de 2017. Surtout, en ajoutant les quelque 7 % rassemblés par Eric Zemmour (Reconquête !), les forces de droite radicale franchissent les 30 %, seuil qu’elles n’avaient jamais atteint en France, tous types de scrutins confondus. Le premier tour de la présidentielle de 2022 constitue un nouveau point haut dans la dynamique ouverte depuis les européennes de 2014, quand les listes Front national avaient, pour la première fois, dépassé la barre des 20 %.

La dynamique de la droite radicale s’appuie sur trois mouvements principaux, qui indiquent une forme de complémentarité entre la candidature de Marine Le Pen et celle d’Eric Zemmour. Premier mouvement, l’accentuation de la domination de Marine Le Pen dans ses fiefs ouvriers situés dans le nord et dans l’est du pays. En 2017, l’Aisne, le Pas-de-Calais et la Haute-Marne étaient les trois départements les plus favorables à Marine Le Pen ; en 2022, elle progresse encore dans ces départements pour atteindre respectivement 39,3 % (+ 3,6 points), 38,7 % (+ 4,4) et 36,6 % (+ 3,4). Deuxième mouvement, des transferts significatifs de la fraction rurale de l’électorat Fillon de 2017, notamment dans l’ouest du pays. Dans la Sarthe, en Mayenne et en Vendée, où François Fillon avait systématiquement obtenu plus de 25 % en 2017 et où Valérie Pécresse s’effondre autour de 5 %, Marine Le Pen progresse respectivement de 6,9 points (27,7 %), de 5,5 points (22,4 %) et de 4,7 points (23,2 %), tandis qu’Eric Zemmour y obtient entre 5 et 6 %. Troisième mouvement, l’attraction Zemmour au sein de la fraction aisée de la droite classique. La dynamique est particulièrement évidente dans le 16e arrondissement de Paris, où le candidat de Reconquête ! obtient 17,5 %, alors que Marine Le Pen y reste marginalisée à 5,8 %.

 

Nucléaire : 7 nouvelles centrales au Royaume-Uni

Nucléaire : 7 nouvelles centrales au Royaume-Uni

La guerre en Ukraine aura au moins convaincu d’accélérer la transition énergétique afin d’assurer une plus grande indépendance de l’Europe. Ainsi la France a déjà décidé de construire six nouvelles centrales nucléaires et d’en étudier la construction de huit autres.
Aujourd’hui disposer d’électricité d’origine nucléaire constitue un atout indispensable d’indépendance économique. A contrario, on peut voir que l’Allemagne est complètement engluée dans ses relations avec la Russie via le gaz.

Le Royaume-Uni pourrait construire jusqu’à sept centrales nucléaires d’ici 2050 tout en misant sur l’éolien en mer dans le cadre d’une nouvelle stratégie pour accroître son indépendance énergétique après l’invasion russe de l’Ukraine, a indiqué dimanche le ministre de l’Énergie.

«L’idée est que, vu ce que (le président russe Vladimir) Poutine est en train de faire, nous ne voulons pas vivre dans un monde où nous dépendons des hydrocarbures russes», a déclaré Kwasi Kwarteng dans le Sunday Telegraph, soulignant que «l’éolien en mer, et surtout le nucléaire» étaient «des moyens d’avoir des capacités de génération électrique au Royaume-Uni».

Selon le journal, après d’intenses discussions en son sein, le gouvernement du premier ministre conservateur Boris Johnson doit présenter jeudi sa stratégie pour réduire la dépendance énergétique du Royaume-Uni et atteindre l’objectif de zéro émission nette d’ici 2050. «

Poutine : De nouvelles menaces vis-à-vis de l’Europe

Poutine : De nouvelles menaces vis-à-vis de l’Europe

 

Vladimir Poutine menace l’Europe affirmant que les sanctions imposées à son pays s’apparentaient « à une déclaration de guerre ».

Sans doute contrarié par la lenteur de l’invasion russe en Ukraine, Poutine multiplie les menaces y compris contre l’Europe. Poutine a déclaré qu’il parviendrait à atteindre ses objectifs soit par la guerre ,soit par la négociation. En clair il conteste le statut d’État à l’Ukraine.

En même temps il menace les pays européens qui apporteraient un soutien trop significatif à Kiev.

Les états voisins de l’Ukraine sont particulièrement inquiet de l’évolution du conflit.

Après la Pologne, Blinken en Moldavie. Le secrétaire d’État américain Antony Blinken est arrivé samedi en Moldavie pour montrer le soutien des États-Unis à ce pays submergé par une vague de réfugiés en provenance d’Ukraine et qui craint de tomber sous la menace Moscou.

Pékin a appelé de son côté à des négociations directes entre la Russie et l’Ukraine lors d’un entretien téléphonique samedi entre le ministre chinois des Affaires étrangères Wang Yi et son homologue américain Antony Blinken, selon un communiqué officiel chinois.

Les forces russes se rapprochent de Kiev, rencontrant une tenace résistance et bombardant parfois des immeubles d’habitation, notamment à Tcherniguiv, à 150 km au nord de la capitale, où des dizaines de civils ont été tués ces derniers jours.

. L’armée russe continue de pilonner les alentours de Kiev, au nord-ouest et à l’est notamment.

 

Entourage de Sarkozy : nouvelles condamnations notamment de Guéant

Entourage de Sarkozy : nouvelles condamnations notamment de Guéant

 

Un vent juridique mauvais souffle toujours autour de Sarkozy et de son entourage. Sarkozy doit toujours rendre compte de plusieurs inculpations dans différentes affaires. Son entourage est lui aussi visé par la justice en particulier l’ancien ministre de l’intérieur Claude Guéant actuellement en prison.

Un  tribunal a encore condamné Claude Guéant à un an d’emprisonnement dont quatre mois avec sursis, assorti d’un mandat de dépôt, dans le procès des sondages de l’Élysée. Dans cette affaire, le tribunal a jugé que les millions d’euros en conseil politique et sondages facturés à l’Élysée entre 2007 et 2012 par les sociétés de Patrick Buisson et Pierre Giacometti, ainsi que par l’Institut Ipsos, avaient bien fait l’objet de favoritisme. Deux contrats signés par Patrick Buisson constituent en outre bien un détournement de fonds publics à hauteur de 1,4 million d’euros, a expliqué le président Benjamin Blanchet.

Quatre autres anciens conseillers ou collaborateurs de Nicolas Sarkozy, soupçonnés de favoritisme, recel de favoritisme et détournement de fonds publics, comparaissaient à ce procès. Le tribunal a décidé de condamner Patrick Buisson, absent également pour le rendu du verdict, à deux ans d’emprisonnement avec sursis, ainsi qu’à une amende de 150.000 €. Patrick Buisson a été condamné pour détournement de fonds publics et abus de biens sociaux au préjudice de ses sociétés. Sa peine est assortie d’une interdiction de diriger ou de gérer une entreprise commerciale pendant dix ans.

L’ex-sondeur Pierre Giacometti a quant à lui été condamné à six mois de prison avec sursis ainsi qu’à 70.000 € d’amende. Enfin, l’ancienne directrice de cabinet de Nicolas Sarkozy à l’Élysée, Emmanuelle Mignon, a été condamnée à six mois de prison avec sursis, une peine bien plus lourde que les 10.000 euros d’amende requis

COVID FRANCE 9 janvier 2022 : 303.669 nouvelles contaminations en 24 heures

COVID FRANCE 9 janvier 2022 : 303.669 nouvelles contaminations en 24 heures

Une tendance en légère baisse mais qui reste à confirmer. En effet, 303.669 nouveaux cas de Covid-19 ont été enregistrés ces 24 dernières heures, selon les derniers chiffres de Santé Publique France. Ce résultat est en légère baisse par rapport aux 328.214 nouvelles contaminations annoncées la veille, chiffre qui était le plus élevé jamais enregistré dans l’hexagone. Une variation sur une seule journée ne permet néanmoins pas de dessiner une tendance. La moyenne sur sept jours est toujours en progression, avec plus de 270.000 cas quotidiens, contre environ 267.000 la veille, et 204.000 jeudi. La maladie a emporté 125.349 personnes depuis le début de l’épidémie au printemps 2020. Dont 98.209 sont mortes à l’hôpital, avec 143 nouveaux décès en 24 heures. La maladie a emporté 125.349 personnes depuis le début de l’épidémie au printemps 2020. Dont 98.209 sont mortes à l’hôpital, avec 143 nouveaux décès en 24 heures.

Nouvelles technologies–L’aliénation par les machines parlantes ?

Nouvelles technologies–L’aliénation par les machines parlantes 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables. 

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

Macron et Covid: vers de nouvelles mesures molles

Covid: vers de nouvelles  mesures molles

 

Un conseil de défense va se réunir lundi et le chef de l’État indiquera les nouvelles mesures prises compte tenu du développement exceptionnel du virus. Il est toutefois vraisemblable que le gouvernement cherchera à ne pas provoquer davantage le mécontentement de l’opinion publique et prendra des mesures molles. Notamment relatives aux dates des vacances scolaires alors qu’on sait que le virus est largement véhiculé aussi par les enfants lesquels en sont aussi victimes comme cela vient d’être démontré aux États-Unis.

Parmi les mesures molles, on proposera certainement un couvre-feu en particulier pour la Saint-Sylvestre. Des limitations seront sans doute imposées aussi dans les activités d’hôtellerie.

On va rappeler l’annulation des feux d’artifice, une mesure relativement anecdotique.

Le chef de l’État va probablement insister sur le nouveau pass vaccinal qui remplace le pass sanitaire. Un document qui en fait valide le concept de vaccination obligatoire mais sans le dire. On pourrait y ajouter en plus l’obligation d’un test ( en plus des vaccinations) pour l’obtenir. Notons cependant que la validité d’un test est relative et ne vaut que pour le moment on vérifie l’existence ou non de virus.

On va sans doute aussi interdire certaines activités collectives de nature associatives voire même privées.

Il ne faut guère s’attendre à ce que le président de la république décide d’un confinement généralisé, par davantage qu’il impose la vaccination obligatoire pour tous les enfants et pour les salariés des entreprises.

Bref un ensemble de mesures molles en attendant sans doute que les chiffres imposent des mesures beaucoup plus radicales d’ici un mois au plus (la barre des 200 000 contaminés pourrait être atteinte vers mi-janvier.)

SNCF: Nouvelles grèves des syndicats pour tuer l’entreprise et le service public

SNCF: Nouvelles grèves des syndicats pour tuer l’entreprise et le service public 

 

 

 

La SNCF est évidemment engluée dans une situation économique , financière et concurrentielle  inextricable. En clair, elle ne cesse de perdre des parts de marché sur tous les créneaux, accuse une crise financière sans fin et se trouve maintenant affrontée à une concurrence anarchique ( réciproquement la SNCF va concurrencer les autres réseaux des pays étrangers !).

C’est encore le moment choisi par les syndicats pour appeler à une nouvelle grève pendant les vacances de Noël.

En fait, les syndicats sont engagés dans une fuite en avant gauchiste pilotée par Sud rail. Un mouvement qui va concerner essentiellement les agents de conduite et les contrôleurs et qui évidemment va porter une nouvelle atteinte à l’image d’une entreprise complètement cangrenée par la gréviculture , le gauchisme et l’irresponsabilité.

On voudrait tuer définitivement l’entreprise et le service public  qu’on ne s’y prendrait pas autrement avec comme horizon un jour une société recroquevillée sur quelques activités que le corporatisme irresponsable n’aura encore pas réussi à étrangler complètement.

Cette grève en pleine période pandémique va surtout porter atteinte à l’intérêt des usagers. Le paradoxe c’est que parallèlement la SNCF est engagée dans la voie d’une libéralisation qui va autoriser la concurrence pour la circulation des TGV et permettre à cette concurrence de pénétrer largement les TER via les appels d’offres.

Les syndicats font la démonstration de leur incompétence même à conduire un mouvement syndical dans l’intérêt des cheminots, de l’entreprise et des clients. L’histoire retiendra sans doute qu’ils ont largement contribué à saboter leur outil de travail, à le déconsidérer et à persuader les pouvoirs publics de tuer progressivement une entreprise ingérable.

Le gauchisme syndical a déjà largement favorisé la disparition du transport ferroviaire de messagerie, puis la quasi extinction du transport de fret ; il pourra se glorifier d’avoir largement participé à l’extinction du transport SNCF de personnes

 

 

Nouvelles grèves des syndicats pour tuer la SNCF

 

Nouvelles grèves des syndicats pour tuer la SNCF

 

 

La SNCF est évidemment engluée dans une situation économique , financière et concurrentielle  inextricable. En clair, elle ne cesse de perdre des parts de marché sur tous les créneaux, accuse une crise financière sans fin et se trouve maintenant affrontée à une concurrence anarchique ( réciproquement la SNCF va concurrencer les autres réseaux des pays étrangers !).

C’est encore le moment choisi par les syndicats pour appeler à une nouvelle grève pendant les vacances de Noël.

En fait, les syndicats sont engagés dans une fuite en avant gauchiste pilotée par Sud rail. Un mouvement qui va concerner essentiellement les agents de conduite et les contrôleurs et qui évidemment va porter une nouvelle atteinte à l’image d’une entreprise complètement cangrenée par la gréviculture , le gauchisme et l’irresponsabilité.

On voudrait tuer définitivement l’entreprise qu’on ne s’y prendrait pas autrement avec comme horizon un jour une société recroquevillée sur quelques activités que le corporatisme irresponsable n’aura encore pas réussi à étrangler complètement.

Cette grève en pleine période pandémique va surtout porter atteinte à l’intérêt des usagers. Le paradoxe c’est que parallèlement la SNCF est engagée dans la voie d’une libéralisation qui va autoriser la concurrence pour la circulation des TGV et permettre à cette concurrence de pénétrer largement les TER via les appels d’offres.

Les syndicats font la démonstration de leur incompétence même à conduire un mouvement syndical dans l’intérêt des cheminots, de l’entreprise et des clients. L’histoire retiendra sans doute qu’ils ont largement contribué à saboter leur outil de travail, à le déconsidérer et à persuader les pouvoirs publics de tuer progressivement une entreprise ingérable.

Le gauchisme syndical a déjà largement favorisé la disparition du transport ferroviaire de messagerie, puis la quasi extinction du transport de fret ; il pourra se glorifier d’avoir largement participé à l’extinction du transport SNCF de personnes

 

 

Nouvelles technologies– Les dangers de la digitalisation et du cloud

Nouvelles technologies– Les dangers  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– risques et excès de la digitalisation et du cloud

Nouvelles technologies– risques et excès  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Comment naissent et se développent les nouvelles technologies

  • Comment naissent et se développent les nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais
1...45678...15



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol