IA : le but est-il devenu le moyen ?

IA_but_devenu_le_moyen

Dans leur ouvrage, "L’intelligence artificielle n’est pas une question technologique" (Éditions de l’Aube), Laurent Bibard, responsable de la filière Management et philosophie de l’ESSEC, et Nicolas Sabouret, professeur à l’Université Paris-Saclay où il dirige la graduate school d’informatique et sciences du numérique, soulignent qu’ "il n’y a pas de problème d’intelligence artificielle, il n’y a que le problème de nos attentes à l’égard de ce que nous avons nous-mêmes créé". Démonstration avec un extrait que nous republions sur The Conversation France.

Même si nous avons du mal à l’admettre, la tendance est plutôt technophile dans notre société. Malgré certaines résistances qui s’expriment à travers la demande de "moins de technologie" et "plus d’humain", la tendance générale est que la société se « technologise » de plus en plus, sans forcément réfléchir collectivement aux raisons pour lesquelles elle le fait. Et cela nous conduit à ce genre de situation où l’on renouvelle les machines très souvent et où l’on calcule à tout va, donc en générant énormément de pollution. […]

Il faut bien distinguer, dans ces outils de calcul qui coûtent très cher et qui polluent, d’une part, les calculs qui sont faits dans un but collectif de progrès pour la société – que ce soit par les chercheurs ou par des entreprises qui essayent de travailler pour le bien commun –, d’autre part, les usages individuels qui peuvent parfois relever de cet esclavage moderne.

La mode et la diffusion des photos de chatons sur les réseaux sociaux sont très coûteuses sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Au contraire, lors de la pandémie de Covid-19, les centres de calcul ont permis de simuler et de comprendre les modes de diffusion de la maladie, de suivre l’évolution des variants, de manière indéniablement efficace.

Dans les deux cas (la publicité et la recherche sur le Covid-19), tout cela est rendu possible par les algorithmes d’intelligence artificielle (IA). Ce sont donc aussi ces algorithmes, dont nous critiquons l’usage sur les réseaux sociaux, qui nous ont permis de sortir de la pandémie en deux ans, avec un nombre de victimes qui, malgré, tout reste limité – dix fois moins, par exemple, que la grippe espagnole du début du XXe siècle. Grâce aux technologies, nous avons su relativement bien maîtriser une situation potentiellement catastrophique. Cela s’est fait avec ces mêmes centres de calcul très polluants […].

Il faut donc faire la différence entre la photo de chaton qu’on va mettre sur Internet et des technologies mises à disposition dans l’intérêt collectif du bien commun, pour problématiser la question du rapport aux technologies sur le plan directement de la philosophie morale et politique. Cela montre encore ici que, par elles-mêmes, les technologies ne posent pas de problème. C’est le rapport que nous entretenons avec elles qui pose problème, par rapport à nos attentes, par rapport à la conformation à des groupes, par rapport à la mode, etc.

Fonctionnalisme

On peut, comme on vient de le voir, problématiser la question sur le plan de la philosophie morale et politique, mais on peut aussi la problématiser sur le plan que l’on peut qualifier d’ "épistémologique",  c’est-à-dire qui concerne la solidité de nos savoirs. Il y a sur ce sujet une réflexion tout à fait fondamentale d’un philosophe peu connu qui s’appelle Jacob Klein. Il observe qu’à partir de la Renaissance, l’élaboration de la physique mathématique sur la base de l’algèbre conduit les sciences à prendre inévitablement pour but leurs propres méthodes. Il écrit à peu près ceci :

"Jamais les anciens n’auraient pris la méthode comme but."

Il veut dire par là que l’élaboration des sciences modernes a comme adossement sous-jacent l’idée que la méthode est un but. L’idée que le mode de fonctionnement est le but, en quelque sorte, de la recherche. Et s’il y a du vrai dans ce qu’il dit, il est capital de savoir s’en dégager pour n’utiliser la recherche que comme un moyen d’un but autre que la recherche elle-même, qui n’est pas faite pour se servir elle-même, mais bien pour servir la vie en société, le bien commun.

Cela se transpose dans nos vies concrètes, dans la vie sociale, au travers de ce qu’on appelle en sociologie le fonctionnalisme. Le fonctionnalisme c’est une manière d’approcher les organisations qui identifient de manière très convaincante qu’une organisation risque toujours de se prendre pour son propre but.

La grande déresponsabilisation

Il y en a un exemple remarquable dans le tout début du film Vol au-dessus d’un nid de coucou de Miloš Forman, avec Jack Nicholson. La scène montrée par Forman au début du film est révélatrice de la difficulté que nous abordons ici. Elle a lieu à un moment où des patients dans un hôpital psychiatrique sont censés prendre du repos. Et l’on voit que le personnel de soins, très subtilement, au lieu d’apaiser les patients, les énerve. Ainsi, les soignants sont de nouveau utiles : on appelle même les brancardiers pour mettre Nicholson dans sa camisole de force.

Bande-annonce du film Vol au-dessus d’un nid de coucou (1975).

Nous en rions car c’est un film, mais cela est malheureusement tragiquement vrai, et arrive plus que fréquemment tous contextes confondus : au lieu de faciliter le fonctionnement de la structure, de se mettre au service des usagers, les acteurs agissent de manière à rester utiles, c’est-à-dire à ce que leur fonctionnement soit confirmé dans sa pertinence. Autrement dit, on entretient le problème, parce qu’on en est la réponse. Et il se peut que le problème que l’on entretient ait perdu de sa pertinence, voire soit devenu caduc, n’ait aucun sens, voire n’en ait jamais eu…

"L’intelligence artificielle n’est pas une question technologique", de Laurent Bibard et Nicolas Sabouret. Éditions de l’aube

Des distorsions des systèmes de cet ordre représentent un véritable problème dans notre monde. Et les technologies en sont un rouage de plus en plus central. Elles deviennent un but en soi pour améliorer les capacités de calcul des ordinateurs, de l’IA, etc., indépendamment de l’intérêt que cela puisse apporter aux humains, à la société, au bien commun.

Nous sommes donc, à nouveau, face à un problème fondamentalement humain. Une des manières intéressantes de le poser, c’est de dire que quand on se réfugie dans des théories des systèmes, en n’admettant pas qu’il y a une responsabilité des individus et donc en présupposant que les humains et les individus sont noyés dans les systèmes, on déresponsabilise tout le monde, en jouant de facto le jeu d’une humanité noyée dans les systèmes, dans tout système.

Les théories qui n’insistent que sur l’aspect systémique des fonctionnements contribuent à nos aliénations, au fait que nous devenons des rouages dans des machines. Nous devenons les moyens des machines parce que nous nous représentons que nous sommes dominés par les systèmes.

Laurent Bibard, Professeur en management, titulaire de la chaire Edgar Morin de la complexité, ESSEC et Nicolas Sabouret, Professeur en informatique, Université Paris-Saclay

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Crédit image : Shutterstock / SomYuZu


Dans la catégorie Société >



Les nouvelles récentes >