Archive pour le Tag 'neutres'

Les algorithmes sont neutres ? ( Aurélie Jean)

Les algorithmes sont neutres ? ( Aurélie Jean)

 

 

D‘une certaine manière, la scientifique Aurélie Jean considère que les algorithmes sont n à l’image de ceux qui les construisent. Un peu la même problématique que l’énergie atomique qui peut être utilisée à des fins de paix ou de guerre. La question ne serait pas celle de l’existence des technologies mais de leurs conditions d’utilisation. Cette appréciation n’évacue pas cependant les questions de transparence démocratique et de régulation si nécessaire. Sans parler des problèmes d’éthique qui peuvent se poser pour certaines technologies. NDLR

En France, Aurélie Jean s’est imposée comme la meilleure des vulgarisatrices de la science algorithmique. De livres à succès en interventions remarquées, cette experte de la morphologie mathématique ne cesse de ferrailler contre les idées reçues sur les algorithmes, trop souvent assimilés aux seules dérives des réseaux sociaux comme Facebook. Dans son dernier ouvrage, la scientifique rappelle qu’ils ne sont responsables de rien, n’étant pas une personnalité juridique. Ne redoutez donc pas une société qui serait contrôlée par des intelligences artificielles. Mais intéressez-vous aux concepteurs des programmes. Pour poursuivre son entreprise de démystification, l’Opinion a soumis au commentaire de la scientifique des assertions sur les algorithmes.

Les algorithmes sont des coupables idéaux…

Le procès contre un algorithme est impossible, même si j’ai souvent l’impression de jouer leur avocate [rires…] ! Les algorithmesn’ont aucune personnalité juridique, qu’elle soit physique ou morale. Derrière chaque algorithme en fonctionnement, il y a des hommes et des femmes qui ont pensé, développé, testé, vendu et utilisé cet algorithme. Des décisions bien humaines ont été prises tout au long du processus, sur la formulation du problème à résoudre, l’algorithme lui-même, des hypothèses, les données sur lesquelles le calibrer ou l’entraîner, ou encore des scénarios d’utilisation.

Ces décisions peuvent potentiellement être biaisées ou faussées, et mener à des discriminations technologiques – quand une catégorie de la population est écartée du fonctionnement de l’algorithme – ou à des erreurs. Un exemple de discrimination technologique tristement connu sont les premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les personnes de couleur. Le jeu de données sur lequel l’algorithme avait été entraîné, était constitué majoritairement – voire uniquement – d’individus à peaux claires. L’algorithme était alors dans l’impossibilité de reconnaître la présence d’un visage à peau noire.

Les éoliennes politiquement neutres ?

Les éoliennes politiquement neutres ?

 

On peut être en désaccord avec l’implantation d’un parc éolien pour des raisons tout à fait respectables et sans se rallier aux « racoleurs populistes », témoigne, dans une tribune au « Monde », Jean-Clément Martin, historien « rattrapé par l’histoire contemporaine » dans sa commune du Poitou.

 

Tribune.

 

Après Armagnacs contre Bourguignons, protestants contre catholiques, révolutionnaires contre royalistes, aurons-nous membres du « Rassemblement nucléaire » contre adeptes de « l’Ecologie Est Le Vent » ? A moins que, comme pour moi dans une commune du Poitou, ce soit « en même temps » le nucléaire à 35 km et les éoliennes à 3 ?

Je suis, avec d’autres, engagé dans une démarche pour obtenir un moratoire pour l’implantation d’un nouveau parc éolien. Notre commune de 3 000 habitants est déjà « dotée » de trois « petites » éoliennes, mais dix autres, hautes d’au moins 180 mètres, s’ajouteront si les recours sont rejetés, et deux autres projets en prévoient trois sur place et deux sur la bordure immédiate de la commune voisine. Total prévisible : 19 éoliennes ! Dans un rayon d’une quinzaine de kilomètres autour de Sanxay (Vienne), 88 éoliennes sont projetées.


Non seulement les dernières marques d’un bocage, déjà bien lâche, ne vont pas résister à cet assaut, mais les Soirées lyriques de Sanxay – une des principales manifestations d’art lyrique en France – risquent bien d’être perturbées par tous ces mâts qui vont lancer des éclairs rouges ou blancs la nuit tombée.

Je n’entrerai pas dans des débats techniques, économiques, écologiques… Je suis d’abord historien – en l’occurrence rattrapé par l’histoire contemporaine – et comme tel, je suis en revanche sensible aux dérives politiques et aux manipulations politiciennes. Je déplore, pour l’avoir vue, la médiocre information distribuée par les municipalités précédentes, je crains le lobbying remarquablement mené par les promoteurs et encore plus le faible débat dans les instances collectives locales.


Mais surtout je m’élève farouchement contre la présentation qui ferait du Rassemblement national (RN) le défenseur du petit peuple soumis aux pales destructrices contre les écolos-bobos urbanisés imposant leurs joujoux. Dans la petite association qui existe dans la commune, nous rappelons la nécessité de trouver des solutions à la consommation d’électricité et nous ne lançons pas une croisade contre les éoliennes.

« Les algorithmes ne sont pas neutres »

« Les algorithmes  ne sont pas neutres »

Le défenseur des droits conteste la neutralité des algorithmes et même certaines de leur pertinence. l’ancien ministre de la Justice souhaiterait traiter ce sujet avant son départ de l’institution, le 17 juillet prochain. A priori les algorithmes sont scientifiquement très sexy pour autant ils ne sont pas forcément pertinents vis-à-vis des facteurs explicatifs  et des hypothèses prospectives. Se pose aussi la question fondamental de la maîtrise humaine de la technique

 

La crise du Covid a-t-elle accru le risque de discrimination lié à l’utilisation des algorithmes?
A l’occasion de la crise du Covid-19, de nombreuses questions d’accès aux droits fondamentaux – égalité, liberté, etc. – se sont posées. Or, en matière d’épidémiologie, l’utilisation de base de données et leur mise en oeuvre par des processus mathématiques paraît évidente. Mais aujourd’hui, la pression des algorithmes est de plus en plus considérable car ils sont incontestablement l’une des manières de répondre à cette faiblesse de nos sociétés qui consiste à vouloir toujours trouver une solution à tout.

 

Quels sont les biais les plus importants?
Il y a d’abord un risque en ce qui concerne les bases de données. Les algorithmes sont créés à partir des données acquises passées. A une autre époque, ils auraient pu permettre d’affirmer que la Terre était plate! Il y a aussi des biais liés à des données non représentatives avec par exemple des catégories sous-représentées de la population. Ensuite, il y a les effets discriminatoires des algorithmes apprenants, c’est-à-dire ceux capables d’évoluer. C’est par exemple l’algorithme de jugement criminel Compas aux Etats-Unis qui, après avoir analysé des dizaines de milliers de jugements, vient aider les juges à rendre leur décision. En tant qu’ancien garde des Sceaux, je trouve que c’est l’horreur.

Que préconisez-vous?
On ne pourra avancer ni sur le diagnostic ni sur les solutions si on ne mène pas un travail qui allie le point de vue des créateurs des algorithmes, des utilisateurs, les directeurs d’hôpitaux par exemple, et des ‘vigilants’, au premier rang desquels la Cnil ; mais aussi des juristes, sociologues, philosophes capables d’introduire un certain nombre de règles dans la confection et la mise en œuvre des algorithmes. La non-discrimination est un principe de notre droit en Europe, elle doit être respectée et effective en toute circonstance, y compris quand une décision passe par le recours à un algorithme.

Les algorithmes renforcent-ils les préjugés humains?
L’informatique n’explique pas tout : dans les procédures de recrutement qui comportent des oraux avec des jurys, l’un des critères implicites est que les candidats soient le plus conformes possible au modèle social des membres du jury. Mais si on ajoute les algorithmes, on introduit une formidable puissance de conformisme. En outre, l’intelligence artificielle cherche à accréditer l’idée que la décision peut être prise indépendamment de l’intervention humaine. C’est un piège.

Lire aussi - Jean-Pierre Mignard : « Les mesures prises sont conformes au droit des sociétés démocratiques »

Ressemblent-ils à ceux qui les conçoivent?
Des études montrent que les algorithmes sont faits par une grande majorité d’informaticiens qui sont des hommes blancs et donc, les algorithmes apprenants vont jusqu’au bout traîner l’idée, par exemple, de différences entre les hommes et les femmes. Tous les stéréotypes de la société contre lesquels nous luttons risquent de se traduire dans les algorithmes. C’est un mécanisme extrêmement puissant car il est en apparence autonome. On dit que les algorithmes sont neutres car les mathématiques le sont, mais en réalité ils intègrent des éléments qui ne le sont pas. Les algorithmes locaux que les universités utilisent pour les dossiers de Parcoursup sont un très bon exemple de ce que des éléments neutres peuvent aboutir à des effets discriminatoires.

Pourquoi?
Quand vous retenez dans les critères le lycée d’origine, vous intégrez tout un contexte économique et social, les caractéristiques particulières des élèves qui le fréquentent, etc. A partir d’une donnée objective, vous aboutissez à une situation dans laquelle les élèves issus de classes populaires défavorisées ont moins de chance d’être pris dans des écoles ou des universités prestigieuses. Début avril, le Conseil constitutionnel a tranché : on doit pouvoir connaître ce que contient l’algorithme local. Le critère du lycée d’origine sera désormais probablement écarté ou en tout cas, le nécessaire sera fait pour que les décisions soient transparentes et motivées.

Pourquoi serait-ce davantage problématique qu’un jury qui prendrait également en compte ce critère géographique?
Le jury de la fac se retranchera derrière la décision de l’algorithme. Vous habillez d’un caractère objectif et neutre quelque chose qui ne l’est pas. Les algorithmes ont un caractère extrêmement séduisant. Dans la crise actuelle pleine de controverses, les algorithmes vont créer du consensus par exemple dans le choix des malades à soigner. Il y a une bataille entre l’intelligence artificielle et l’intelligence humaine. Or, l’intelligence artificielle présente un caractère en apparence objectif, désintéressé, consensuel et unanimiste alors que la recherche issue de l’intelligence humaine est faite constamment de ruptures. Ici se posent toutes les questions provoquées la puissance de l’informatique, des nouvelles technologies et la pression de ceux qui les fabriquent et les vendent.

Faut-il encadrer la conception de ces algorithmes?
Les créateurs de ces outils ne sont pas seulement des génies des maths, ils ont une responsabilité sociale. Il faut les former et les sensibiliser aux enjeux de discrimination. Il faut développer la recherche et inventer des algorithmes de ‘fair-learning’ qui répondent à l’objectif d’explicabilité, de transparence et d’égalité. Il faut développer les dispositions de l’article 13 du RGPD (règlement général sur la protection des données) pour aller plus loin. Enfin, des études d’impact systématiques, comme au Canada, doivent permettre d’anticiper les éventuels effets discriminatoires d’un algorithme dans le domaine public. Les professionnels doivent penser aux conséquences que leur algorithme va avoir. C’est le cas par exemple pour la médecine prédictive, avec des algorithmes qui pourraient établir des diagnostics sur la seule exploitation de l’historique des données. Il faut mettre en cause les grandes entreprises mondiales qui sont à l’origine de ces algorithmes.

Que pensez-vous des systèmes de traçage mis en place pour répondre à la crise sanitaire?
En France, comme en Grande-Bretagne, l’application de traçage repose sur une architecture centralisée. En Allemagne et en Espagne, l’architecture est décentralisée. En France, certains craignent que l’Etat ne dispose ainsi d’un fichier qui pourrait faire l’objet d’une fuite. Mais derrière une architecture décentralisée, il y a directement Google et Apple. Quelles garanties supplémentaires ces entreprises offrent-elles sur de tels dispositifs?

Doit-on faire d’autres lois pour encadrer leur utilisation?
La deuxième loi sur l’état d’urgence sanitaire comporte des dispositions protectrices que le défenseur des droits a souhaitées et que la Cnil a définies. Dans un Etat de droit, il existe tout un arsenal juridique sur les droits fondamentaux : c’est par exemple la loi de 2002 sur les droits des malades, ou celle sur la fin de vie, etc. L’Etat de droit repose sur un principe essentiel : le consentement du malade. Il faut que nous arrivions à faire entrer l’utilisation des algorithmes dans le cadre de ces lois. Ou bien il faudra créer d’autres lois, car les pouvoirs publics doivent s’assurer que leur mise en œuvre ne soit pas créatrice de discriminations.

Selon vous, ce débat sur les discriminations fait écho à la crise actuelle…
Les algorithmes sont une question de société marquée par une très forte pression de l’économie et une certaine indifférence du public. C’est un sujet central car il met en cause la combinaison fondamentale liberté-égalité, tout comme la crise sanitaire que l’on traverse.

L’homme doit-il reprendre le contrôle de la machine?
Nous devons susciter de la vigilance. Les algorithmes sont une création humaine et l’homme doit conserver sa responsabilité dans la manière dont ils sont faits et appliqués. Il n’y a pas d’un côté la technologie qui marche toute seule et de l’autre l’humanité qui tâtonne dans son coin. La technologie est issue de notre intelligence, elle relève de notre responsabilité. Individuellement et collectivement, les hommes et les femmes doivent maîtriser cette création du début à la fin.

Cigarettes : des paquets vides à la place des paquets neutres

Cigarettes : des paquets vides  à la place des paquets neutres

Touraine, la ministre de la santé veut un pays sans tabac. Le tabac est effectivement dangereux mais la question est de savoir comment gérer sa suppression, Pour l’instant on pense au paquet neutre, donc sans indication de marque mais cela ferait perdre des recettes à l’Etat du faat du transfert vers des cigarettes d’  importation illégales ou pas (environ 25% des cigarettes). Reste aussi une  solution, le paquet mais vide. On garde limage des marques mais sans rien à l’intérieur.  Tout en maintenant la fiscalité. De quoi satisfaire les buralistes, Bercy et Marisol Touraine. Pour les fumeurs on pourrait envisager un plan d’urgence comme pour les éleveurs, un plan fumeux quoi ! La mise en place du paquet neutre n’est pas anodine. Outre son efficacité largement débattue et la colère des buralistes, cela pourrait aussi faire perdre de l’argent à l’Etat. En effet, le paquet neutre pourrait faire perdre à court terme deux milliards d’euros par an de recettes fiscales à l’Etat, selon une étude commandée par Japan Tobacco International (JTI) au cabinet de conseil français MAPP, révélée mardi.   »Sur les 14 milliards d’euros annuels que représente la fiscalité du tabac, le manque à gagner pour le budget de la France serait de 2,015 milliards d’euros. Cette perte de recette fiscale serait la conséquence directe du profond bouleversement du marché du tabac que provoquerait en France l’impossibilité pour les marques de se différencier », souligne l’étude.  Selon le niveau de dégradation de l’image de marque qui résulterait de la mise en place du paquet neutre, les pertes de recettes fiscales seraient ainsi comprises entre 413 millions et 3,474 milliards d’euros par an, estime le cabinet spécialisé dans les questions de concurrence. Les trois quarts de ce manque à gagner proviendraient d’un report de la consommation vers des produits non taxés en France, à savoir des cigarettes d’importation légale, ou de contrebande, ou encore de contrefaçon.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol