Investir pour un monde plus humain

 
 
Ethique et Investissement Investir pour un monde plus humain
 
 
 
 
 

Des nouvelles de quelques partenaires d'E&I, de longue date ! Actualités A quoi, à qui se fier pour "investir éthique" : une soirée-débat d'E&I

Favoriser une éthique appliquée à l'"Intelligence Artificielle"
 

web-4861605_1280rufio1 de Pixabay

 

Hasard du calendrier ou Providence, le même jour que notre soirée-débat à propos des enjeux éthiques de l' "IA", ce 30 avril 2024, l'Appel de Rome (pour une éthique de l'"Intelligence Artificielle ") enregistrait un nouveau co-signataire en la personne de l’archevêque de Canterbury, chef de la Communion Anglicane, Justin Welby, lors d’une cérémonie au Vatican.

Cet Appel, comme rappelé dans le Livret remis aux participants de la soirée-débat d'Ethique et Investissement, s'est assigné pour objectif de favoriser une culture commune "capable de veiller à ce que cette technologie serve le bien commun et la sauvegarde de la maison commune". Sont co-signataires depuis 2020 : le rabbin Eliezer Sima Weisz, le Cheik Abdallah bin Bayyah, Brad Smith (Microsoft), Dario Gil (IBM) Maximo T. Cullen (FAO) ; ils s'accordent à défendre des principes ayant trait à la transparence, l’inclusion, l’impartialité, la fiabilité, la sécurité et du respect de la vie privée que "les IA" ne devraient pas bafouer.

 

Un enjeu colossal

 

Cette initiative alerte sur l'urgente nécessité d'une éthique appliquée aux algorithmes, pièce maîtresse des « outils » dotés d’ « intelligence », certes « artificielle » (IA), c’est-à-dire en mesure de produire du renseignement (c’est le sens du mot anglais « intelligence », comme dans « CIA ») généré grâce à des digesteurs de données de plus en plus  « puissants », si l’on considère les calculs statistiques effectués de manière automatique, dans ce système.

 

Sur un ton ni anxiogène, ni apologétique et en termes simples : un historique et une typologie (de Xavier Drouet) sont consultables ici.

 

De tels systèmes "truffés" d'IA «sont partout, constate Aurélie Jean. Elle précise, dans son livre "Algortihmes, bientôt maîtres du monde?" : « On ne les trouve pas que dans les réseaux sociaux, mais aussi en médecine, dans nos modes de transport, de communication, dans la finance, l’éducation, la construction… ». Partout, autrement dit « ces technologies ont le potentiel de remodeler notre façon de travailler, d’interagir et de vivre ; d’être humain en somme » (Geoffroy de Vienne, Président d’Ethique et Investissement).

 

Qu’est-ce que "l’IA" ?

 

Elle fait couler beaucoup d'encre et sera encore d’actualité prochainement : « l’IA » est à l’ordre du jour du G7 de juin 2024 en Italie, Sommet de chefs d'Etat auquel a prévu de participer le Pape François. La Présidente du pays hôte s’en réjouit, mentionnant l’IA comme « le plus grand défi anthropologique de cette époque». «Une technologie qui peut générer de grandes opportunités mais qui comporte aussi d'énormes risques et qui affecte inévitablement les équilibres mondiaux» rapporte Vatican News, qui relaie la nouvelle. « Le risque est que les critères qui sous-tendent certains choix deviennent moins clairs, que la responsabilité de la prise de décision soit dissimulée et que les producteurs puissent se soustraire à l’obligation d’agir pour le bien de la communauté » poursuit la Présidente italienne estimant que « le système technocratique, qui allie l’économie à la technologie et privilégie le critère de l’efficacité, en ignorant tendantiellement tout ce qui n’est pas lié à ses intérêts immédiats » et c'est un accélérateur de poids.

 

Le fait est est que des machines auto-« apprenantes », dont la sophistication est l’un des apanages, carburent grâce à des données, de plus en plus volumineuses, et elles sont de mieux en mieux « armées » pour retourner un résultat qui peut avoir les atours d’une « décision » en lieu et place d’un esprit humain. On dit qu’elles le font de manière « autonome » comme autrefois on a pu nommer, avant l'heure, les voitures motorisées d'objets  « automobiles » (étymologiqment : qui se meut de manière autonome) ? Sauf que celles-là ne pouvaient se passer de chauffeur pour aller d'un point A à un point B… Tandis qu’avec l’IA, pas sûre que le pouvoir de décision humaine ne soit pas déjà entamé à un point inédit. Le sociologue Gérald Bronner dans sa chronique du 4/4/2024 parue dans l'Express, titré "Qui blâmer si des décisions calamiteuses sont prises par l'IA?" rapporte qu'une "firme polonaise présente dans 60 pays a révélé avoir mis à sa direction une IA nommée Milka (...) Il ne s'agit pas du 1er PDG artificiel" ajoute-t-il, en citant de plus, une entreprise chinoise, NetDragon Websoft...

 

Certes, "tendance n’est pas destinée" comme le scientifique écologiste, inspirateur avec Barbara Ward du 1er Sommet de la Terre onusien à Stockholm en 1972, René Dubos, avait coutume de le dire de son vivant (1901-1982). Mais gare, l'inclination en l'occurrence a un poids d'autant plus redoutable qu'elle est plurifactorielle : nous sommes à la confluence de « trois révolutions qui font système et s’auto-alimentent » constate Thierry Magnin, membre de l’Académie des technologies, théologien, président-recteur délégué aux humanités à l’Université Catholique de Lille. Dans « Penser l’humain au temps de l’homme augmenté », il énumère :

- la révolution de l’économie mondialisée ;

- la révolution du numérique et de l’information ;

- la révolution technoscientifique.

 

Ajoutant « Nul ne semble en mesure aujourd’hui de prévoir avec exactitude ce que le monde devient et deviendra à travers la synergie de ces trois révolutions, avec une impression d’accélération qui séduit et effraie tout à la fois. Si nous pouvons reconnaître les avantages majeurs que ces trois révolutions offrent à beaucoup d’hommes, d’organisations et de pays (…) certains redoutent un monde à plusieurs vitesses et de nouvelles formes d’exclusions pour ceux qui ne sont pas dans le coup »… La charte d’investissement d’E&I tient de tels « impacts » en haut de sa liste de critères électifs. D’où, pensons-nous, un effort de discernement et d’engagement à consacrer à ce sujet -parmi tant d'autres, il est vrai-, pour qui ambitionne d'investir de la manière la plus éclairée et responsable possible !

 

Entre excès d’honneur, et d’indignité

 

"Des algorithmes malins qui permettent à des machines crétines de résoudre des taches complexes". Voilà comment Cédric Villani définit l'intelligence artificielle sur RCF, le 19/10/2018. Et "en même temps", « chaque jour, dans une grande opacité, ils affectent notre accès à l’information, à la culture, à l’emploi ou encore au crédit » est-il écrit dans le Rapport qu'en tant que scientifique et député de l’Essonne à cette date, il a remis au Premier ministre de l’époque (2018), intitulé « Donner un sens à l’IA ».

Pour ce scientifique distingué (lauréat de la plus haute récompense dans sa discipline, la médaille Fields), l'IA est bel et bien « un sujet polymorphe » avec une dimension éthique, laquelle, dans le rapport cité, occupe tout un chapitre, propositions précises à la clé. Par exemple, l’idée qu’il faut réguler ces technologies mais que « la loi ne peut pas tout, entre autres parce que le temps du droit est bien plus long que celui du code. Il est donc essentiel que les « architectes » de la société numérique – chercheurs, ingénieurs et développeurs – qui conçoivent et commercialisent ces technologies prennent leur juste part dans cette mission en agissant de manière responsable. Cela implique qu’ils soient pleinement conscients des possibles effets négatifs de leurs technologies sur la société et qu’ils œuvrent activement à les limiter » (...). « En l’état actuel de l’art, l’explicabilité des systèmes à base d’apprentissage constitue donc un véritable défi scientifique qui met en tension notre besoin d’explication et notre souci d’efficacité ». Bigre ! Nous sommes les cobayes d'inventions tous azimuts que des apprentis sorciers sans vergogne expérimentent joyeusement... Une situation assez conforme avec le concept de "bac à sable" prévu par la règlementation européenne, prête à autoriser ces inventeurs à ne respecter aucune règle par ailleurs édictées, si c'est à des fins expériementales. Ne pas empêcher la recherche ni les avancées scientifiques, à tout prix, c'est aussi l'un des leitmotiv du Rapport de l'Office Parlementaire de 2017 pompeusement intitulé : "Pour une intelligence artificielle maîtrisée, utile et démystifiée", qui cite Marie Curie : «Dans la vie, rien n’est à craindre, tout est à comprendre». Au risque d'en mourir ? Le corps de cette illustre défunte, sans doute victime des radiations qu'elle a découvertes et utilisées sans précaution (dans l'ignorance des effets nocifs, seuls les avantages de cette découverte étaient magnifiés) est contenu aujourd'hui dans un cercueil en plomb car radioactif...

 

L’explicabilité des algorithmes,

vue comme l’un des garde-fous éthiques

pour accompagner le développement « l’IA »

 

A fortiori avec le « deep learning » (apprentissage dit profond des machines) fruit du langage encore plus « large » mis au point, récemment, et qui « anime » des légions de Chatbots -ces « interlocuteurs » désormais incontournables et plurigénérationnels, cette explicabilité est comme la ligne d'horizon qui s'éloigne, plus on avance... La foi en "l'explicabilité", soit notre capacité à tout comprendre pour peu l'on l'on se donne la peine "d'ouvrir le capot" inspire, dans ce Rapport qui, à la différence de "Notre ambition pour l'IA" (Rapport 2024 au premier Ministre français), s'arrime lui sérieusement à la question de l'éthique, avec quelques injonctions très précises à :

 

  •  la clairvoyance, la prudence des « architectes » (où la mixité pêche), qu’il faut dûment former (et des autres « maillons » de la chaîne de valeur, où leur activité s’insère) ;
  • la transparence et son succédané l’audit (y compris « citoyen », innovation prônée dans ces pages) où perle un pladoyer en faveur de la « compliance » salvatrice, apte à contrecarrer « l’opacité des techniques d’apprentissage profond »…  

 

Tels étaient les principaux jalons du chapitre sur l’éthique, dans le Rapport remis au Premier Ministre de 2018. Entre cette date et aujourd'hui, le discours a quelque peu changé : prise de conscience de la vanité de ce concept ? Ou de l’obstacle à la course effrénée du progrès que cette condition préalable infère, et par conséquent qu’il convient d’oublier, par lâcheté ou, plus vraisemblablement, par amour fou de la science ?

 

Plus récemment en effet (le 18/12/2023), dans l’émission-débat Thinkerview intitulée « IA notre futur assistant ou nouveau maître ? » l’explicabilité a comme "du plomb dans l'aile". Le caractère spectaculaire des prédictions sortant de « boîtes noires » les placent plutôt semble-t-il au-dessus du lot : elles sont « tellement supérieures à ce que les modèles établis » ont fait jusque là, que de bête noire elles accèdent au statut d’espèce à protéger pour ainsi dire ; rien ne doit entraver la recherche. Plus exactement, le mathématicien voit dans notre propre « surprise » face à ce qui « sort » de ce qui reste à nos yeux des « boîtes noires » poindre « un défi scientifique passionnant ». En effet, la nouvelle génération de "machines apprenantes" se révèle capable de prouesses inescomptées. Et si, eu égard aux modes d’apprentissage grâce auxquels la machine est entraînée à apprendre, il fallait comprendre que ce résultat signale tout bonnement qu’il y a « des régularités dans nos expressions » que nous ne soupçonnons pas (et dont les data données à la machine pour « muscler » ses capacités statistiques tirent parti) mais qu'elle révèle ? Elles seraient « plus grandes que ce que l’on imagine», bel et bien « captées» par ces machines. C'est ainsi qu'« elles nous enseignent sur nous-mêmes, êtres humains... ». Avec l’IA la plus avancée, « nous sommes face à un savoir pragmatique en quête de théorie » et c’est une situation inattendue, aux antipodes de la théorie de Shannon précise-t-il. Si Shannon a théorisé l'information, ouvrant la voie à des applications, aujourd'hui, c'est l'inverse : des applications existent et elles souffrent de théorie pouvant expliquer ce qu'elles arrivent à produire.

 

 "Simple outil" ?

 

Nouvelle injonction, l’explicabilité en ce domaine passerait par le truchement suivant : « connais-toi toi même », γνῶθι σεαυτόν en grec. Le précepte gravé au fronton du Temple de Delphes, attribué à Socrate par Platon dans ses propres écrits serait donc de mise pour résoudre une énigme moderne -pardon : pour relever le défi scientifique à la clé de l’IA « générative » -, dont le décor fait il est vrai penser au « Mythe de la caverne », une allégorie diversement interprétée de Platon justement.  

 

Seulement voilà, les outils de cet acabit sont « partout », -cash flows déja "sonnant et trébuchant" ou fantasmés, à l’avenant-, mais ne sont pas -loin de là- qu’à usage de « développement personnel », ni réservés à des fins philanthropiques. Bien au contraire Difficile, dans ces conditions, de les dédouaner de facto des impacts éthiques que leur utilisation, dans les divers environnements où ils prospèrent -parfois « à notre insu, de notre plein gré »- provoquent dans nos vies.

Sans ambages, Anne Alombert et Gaël Giraud alertent sur "les logiques sous-jacentes de l'IA, loin de l'objectivité scientifique ou de la neutralité politique" dans Le Capital que je ne suis pas ! Mettre l'économie et le numérique au service de l'avenir (éd. Fayard, 2024).

 

Force est de constater, à l’heure où pourtant la « finance à impact » tend à devenir le mantra nec plus ultra de l’investissement responsable, que ces impacts-là précisément semblent plutôt poussés du pied sous le tapis : combien d’entreprises, dans le cadre de leur RSE révèlent et prouvent qu’elles prennent la mesure et anticipent les questions éthiques spécifiques, en ce domaine ? En matière de gestion financière, quels professionnels osent « interroger » à cette aune leurs pratiques, décrire leurs outils quotidiens bardés d’  « IA » (dont ils sont aussi familiers que friands, fintech oblige !), et lesquels ont-ils à coeur de répondre de leurs interrogations/précautions auprès de leurs clients investisseurs (autrement que pour se vanter d’être à la pointe du progrès, car la tendance la plus courante est de s’emparer des innovations avec gourmandise…) ? Les enjeux sont pourtant bien du ressort de la gestion des risques autant que de la transparence due au client (épargnant/actionnaire) exigées, de plus en plus.

 

"Combien d’entreprises, férues de RSE prennent-elles la mesure

des questions éthiques associées à l'« IA »

et en gestion financière, quels professionnels osent « interroger »

à cette aune leurs pratiques, leurs modèles et leurs outils quotidiens bardés d’ « IA » ?

 

 

D'où, le 30 avril dernier, une soirée-débat autour d'intervenants tels que Christian Walter, pour lequel les techniques de la gestion financière et leurs outils ne sont pas neutres. Par conséquent, les valeurs éthiques arborées par les produits, que l’investisseur responsable croit financer sont-elles dévoyées ou non, du fait de ces passagers clandestins … ? Des modèles, des techniques familières en gestion financière sont à interroger dans cette perspective, voire à bannir a-t-il esquissé, et, à l'heure où de manière accélérée, sans ces réflexions préalables par "la force des choses" cette industrie se met à la page, avec des IA à foison, ce point mérite attention....

 

Le champ des questions que des entreprises férues de RSE (responsabilité sociale et environnementale) à propos d’IA peuvent et/ou devraient se poser a été lucidement balayé, exemples concrets à l’appui, par Stéphanie Scouppe. Combien se sont attelées, comme elle au sein de son entreprise (ADP) par exemple, à une cartographie des risques en ce domaine, notamment?

 

Enfin, Arthur Grimonpont, jeune ingénieur qui, aux côtés de Reporters sans frontières (RSF) a œuvré à la charte sur l’IA et le journalisme publiée il y a quelques mois, a choisi, explicitement, de passer sous silence les avantages de l'IA parce que "ceux qui en tirent profit sont suffisamment prolixes". Son objectif assumé, au risque de faire figure de prophète de l'apocalypse : « Protéger l’information à l’ère de l’IA». Il s’est attaché à dépeindre lors de cette soirée-débat le rôle des réseaux sociaux dans notre accès effectif aux sources d’information et les incidences de leurs algortihmes sur nos capacités de discernement, avec des points de vigilance qui corroborent les alertes de certains neuro-biologistes, notamment.

 

L’information, matière première de l’intelligence économique et dans une mesure croissante, "nerf" de la finance de marché, est déterminante. Elle est même cruciale, dans la prise de décision. Humaine, de préférence ! D’où l’importance de ce sujet à nos yeux. Promis, la teneur de ces interventions et le débat de qualité qui s’en est suivi donneront lieu à un compte-rendu, à l'occasion de notre prochaine Newsletter, mi-2024.

 

D’ici là, pour aller plus loin, approfondir un ou plusieurs points, joignez-vous à nous : info@ethinvest.asso.fr

 

 

Michèle Royer,

chargée de mission

 

 

 

Retour