Archive pour le Tag 'éthique'

La consommation éthique en hausse

La consommation  éthique en hausse

  • La consommation éthique progresse qu’il  s agisse du rapport à l’environnement, du gaspillage, du suremballage, de la rémunération des producteurs pu du bien être animal. Selon Kantar TNS,

Plus de 90% des Français trouvent important d’acheter des aliments respectueux du bien-être animal et de l’environnement. C’est 4% de plus que lors du même sondage en 2016. La juste rémunération des producteurs est également au cœur de leurs préoccupations. 91% jugent important d’acheter des produits alimentaires plus respectueux du bien-être animal. Ils étaient 87% à répondre favorablement à cette même question en 2016. De même, 90% des sondés accordent de l’importance à l’impact environnemental des aliments qu’ils consomment, contre 86% en 2016.Ainsi, 81% choisissent en priorité des emballages biodégradables et 86% privilégient les produits avec moins d’emballage ou de suremballage.

Les Français se montrent également sensibles à la juste rémunération des agriculteurs et des éleveurs, et ce plus que dans les autres pays de l’étude. 73% pensent que les agriculteurs ne gagnent pas assez. 78% se déclarent même prêts à payer un peu plus pour mieux valoriser ce travail, expliquant le récent succès de marques équitables, comme le lait équitable « C’est qui le patron? ». En 2016, un Français sur quatre déclarait avoir déjà utilisé les circuits courts dans les 12 derniers mois. Les consommateurs de tous les pays sont également très sensibles à la question du gaspillage alimentaire. Près d’un tiers des Français interrogés, se considérant eux-mêmes comme premiers acteurs dans ce domaine pour 66% d’entre eux, devant les grandes surfaces (52%) ou la restauration collective (46%) ou commerciale (45%).

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Michel Rocard : un intellectuel et un homme d’éthique trop complexe pour la gauche

Michel Rocard : un intellectuel et un homme d’éthique trop complexe pour la gauche

 

Aujourd’hui évidemment c’est le concert de louanges y compris de ceux  qui ne partagent  à peu près rien avec Michel Rocard. La vérité c’est que Michel Rocard n’a jamais été vraiment accepté par cette gauche qui se caractérise en général par un discours radical avant les échéances électorales et une pratique molle et ambiguë lorsqu’elle parvient pouvoir. Finalement le même reproche que faisait déjà Michel Rocard à la SFIO de Guy Mollet. Première observation et de taille l’homme politique Michel Rocard était un intellectuel capable d’approfondir et d’articuler les problématiques économiques, sociales, environnementales et sociétales,  cela y compris au plan international. Pas étonnant si nombre de ses  collègues socialistes admettaient ne pas comprendre grand-chose à ses analyses. Pourquoi tout simplement parce que les intellectuels à gauche sont rares voire inexistants. On attend encore une analyse un peu novatrice, un peu pertinente de la plupart des responsables socialistes. Des socialistes qui pour faire moderne reprennent tout simplement et maladroitement certaines propositions intéressantes de la droite. Du coup les électeurs enivrés les propos radicaux et démagogiques des campagnes électorales se retrouvent complètement déboussolés par la gestion des socialistes parvenus au pouvoir. La plupart des responsables socialistes se réfugient  donc dans une sorte de langue de bois qui marque le grand vide politique et culturel. On objectera aussi à juste titre que les intellectuels se font rares aussi à droite, cela ne saurait  constituer  évidemment une excuse pour la gauche. La plupart des responsables politiques actuellement en France sont intellectuellement creux. Il suffit pour s’en persuader d’examiner le profil de la plupart des candidats à l’élection présidentielle de 2017. Le vide intellectuel est sidéral à gauche bien sûr mais aussi à droite y compris et peut-être surtout aux extrêmes. Des grandes gueules, des marchands d’illusions purs produits du système médiatique qui préfère  les clowns bruyants aux  intellos discrets et rigoureux. La vérité c’est que Michel Rocard n’a jamais été compris ni admis par cette gauche qui revendique frauduleusement son héritage. Michel Rocard a toujours été marginalisé au sein du petit socialiste voire  écarté brutalement notamment par François Mitterrand, un homme de culture ,lui ,mais qui ne s’est jamais embarrassé de conviction en slalomant entre  de l’extrême droite à l’extrême gauche pour finir dans le marais des gestionnaires incompétents,  avec en plus des deux amitiés très sulfureuses. « Jusqu’à son dernier souffle, il a continué à avancer des idées et à proposer ses solutions. Jamais il n’exprimait une nostalgie ou un regret. Seul comptait l’avenir. Michel Rocard a réussi à être un homme d’Etat respecté, un intellectuel brillant et un militant fidèle à l’idéal pour lequel il avait très jeune décidé de consacrer sa vie », cependant dit Hollande que tout oppose à Michel Rocard. « Il a incarné la modernisation de la gauche et l’exigence de dire la vérité. Il était l’homme du ‘parler vrai’. Il restera un exemple de droiture, d’intelligence et d’ardeur. Il savait en même temps rêver le monde et tout faire pour le changer », a aussi déclaré Valls qui sans doute à oublier les convictions de démocratie participative de Michel Rocard, lequel s’est toujours évertué à rechercher les compromis avec toutes les parties. Pas vraiment le style de Valls à la capacité d’analyse limitée jouant les adjudants chef pour tenter de ressembler à Clémenceau.

FIFA fric foot : Platini boycotte le comité d’éthique

FIFA fric foot : Platini boycotte le comité d’éthique 

Platini a évidemment en raison de boycotter la commission d’éthique de la FIFA puisque son sort est scellé déjà depuis longtemps. En effet le porte-parole de ce comité dit d’éthique a déclaré dans la presse que Michel Platini serait suspendu pendant plusieurs années. Dès lors  on ne voit pas l’intérêt pour Platini de présenter sa défense puisque la sentence est déjà rendue. En fait la mise à l’écart de Platini correspond à la stratégie d’un grand nombre de responsables de la FIFA d’écarter ce dernier àfin de maintenir une chape de plomb sur les nombreuses affaires de corruption et de conflit d’intérêts dont se sont rendus comptes coupables nombres de dirigeants de la FIFA ( 16 sont aujourd’hui impliqués et 150 opérations financières font l’objet d’une enquête en Suisse). Platini a sans doute été un peu naïf, voir à peut-être commis des imprudences mais sa suspension pendant plusieurs années de toute responsabilité dans les instances internationales du foot relève d’un règlement de compte. D’autant qu’au sein du comité d’éthique plusieurs soutiennent d’autres candidats que Michel Platini voir même se présentent eux-mêmes. Michel Platini a donc annoncé qu’il ne se présentera à son audition devant la commission d’éthique de la FIFA qui rendra son verdict lundi concernant l’avenir de l’ancien international français. Michel Platini a décidé de boycotter son audition prévue vendredi à Zurich devant la justice interne de la FIFA, « dès lors que le verdict a déjà été annoncé dans la presse par un des porte-parole » au « mépris de la présomption d’innocence », ont indiqué ses avocats dans un communiqué transmis mercredi à l’AFP. La radiation à vie du monde du foot a été requise contre Michel Platini pour ce fameux paiement controversé de 1,8 million d’euros en 2011 - sans contrat écrit –  par Sepp Blatter, président démissionnaire de la FIFA qui sera lui entendu jeudi. Le verdict de la justice interne de la FIFA est attendu à partir de lundi. « Par cette décision (boycotter son audition, ndlr), Michel Platini entend signifier sa plus profonde indignation face à une procédure qu’il considère comme uniquement politique et visant à l’empêcher de se présenter à la présidence de la FIFA », poursuivent ses conseils. 

Foot–fric–FIFA : la sulfureuse commission d’éthique qui va juger Platini

Foot–fric–FIFA : la sulfureuse commission d’éthique qui va juger Platini

Platini a sans doute été un peu naïf et imprudent dans l’affaire qui le concerne ; pour autant, il semble bien d’après des documents que s’est procuré le JDD qu’existait  bien un contrat entre la FIFA et Platini pour justifier de son salaire. Dès lors on peut s’interroger à propos de la sévérité de la chambre d’instruction du comité d’éthique de la FIFA qui n’envisage rien de moins que la radiation à vie de l’intéressé. Mais pour comprendre une telle sévérité il faut savoir que cette commission d’éthique dans le passé comme aujourd’hui s’est livré à deux nombreuses manœuvres à caractère frauduleux. En outre et surtout figurent  dans cette commission d’éthique des membres qui clairement se positionnent pour des candidatures opposées à celles de Platini même qui veulent se présenter eux- même ;  bref,  une commission d’éthique véritable panier de crabes et de vipères dans une organisation qui ressemble à la mafia. Mais Les défenseurs de Michel Platini se sont déclarés optimistes après la publication par le Journal du dimanche d’un document datant de 1998 et accréditant la réalité d’un contrat entre Sepp Blatter, le patron de la FIFA, et leur client, pour un montant d’un million de francs suisses. Le Journal du dimanche fait état d’un rapport de 23 pages qui montre que le salaire suspect reproché à Platini a été en partie évoqué dès 1998 dans un document présenté lors d’une réunion à Stockholm du comité exécutif de la FIFA. « A partir du moment où nous avons la preuve d’un accord entre la FIFA et M. Platini et que cet accord était connu de plusieurs responsables de la FIFA, l’enquête du comité d’éthique n’a plus de raison d’être », a dit à Reuters l’un des avocats de Michel Platini, Thomas Clay. « Pour nous, il s’agit d’une preuve que M. Platini a toujours dit la vérité », a-t-il ajouté. « Cela montre que le contrat n’avait rien de secret et que plusieurs personnes, au sein de l’UEFA et de la FIFA, étaient au courant dès 1998




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol