Thomas Souverain

Thomas Souverain est un jeune chercheur engagé et sa double approche des sujets liés à l’Intelligence Artificielle, technique et philosophique, donne à son discours une dimension humaniste qui vient en contrepoint avec le « tout pour la technologie » que l’on attribue un peu facilement à sa génération. Les Robots ont fait sa rencontre récemment, et tenaient à l’interroger sur ce thème cher à nos lecteurs : de quoi parle-t-on lorsqu’on aborde l’éthique de l’IA ?

Les Robots : Qu’est-ce que cela évoque pour toi, l’éthique de l’IA ?

Thomas : Un scandale fera remonter le sujet à la surface. Souvenez-vous, il y a une dizaine d’années de Tay, un agent conversationnel (chatbot) mis en ligne par Microsoft sur Twitter et Snapchat, entre autres. Passe-temps pour les 18-24 ans, ce robot prenait les traits d’une adolescente et utilisait massivement les emojis. En 48h l’outil a été retiré, tant les utilisateurs ont influencé les réponses de l’agent jusqu’à les rendre moralement inacceptables, ainsi de la négation du génocide des juifs ou de l’apologie d’Hitler. Ce que ce scandale nous a appris, c’est la vitesse de réaction des utilisateurs et leur volonté de « tester » les nouveaux outils, en particulier d’IA. Alors qu’au départ ce projet promettait des conversations sympathiques, il a été détourné très facilement et pas pour le meilleur.

Cet exemple donne à réfléchir sur les valeurs que nous projetons sur l’IA. Quelle est la finalité des outils et comment certains pourraient la détourner, sont des questions primordiales.

Les Robots : Comment proposes-tu d’y répondre aujourd’hui, face à la montée très rapide de l’IA Générative ?

Thomas : Ce qui m’intéresse particulièrement, c’est d’adopter le point de vue de l’utilisateur. Parce qu’en réalité, il ne sait pas ce qui se trouve dans la fameuse « boîte noire ». Il la questionne parfois, mais il ne sait pas, nous ne savons pas, comment elle est constituée ni comment elle fonctionne réellement. Nous sommes davantage dans un rôle de spectateur de l’IA. D’ailleurs ces IA Génératives nous fournisse l’illusion d’un dialogue entre l’humain et la machine. On avance facilement que nous avons encore la capacité à être en contrôle, via le prompt, dit autrement via les commandes que nous lui envoyons. Face à l’IA aujourd’hui, nous devons avoir des outils d’analyse, des indicateurs de véracité des informations, et sans doute ne plus seulement nous fier à notre intuition.

Pour autant, l’important est parfois dans ce que ne montrent pas les indicateurs ou les mesures. C’est aussi ce que l’on doit garder en tête lorsqu’on mène ce genre de réflexion. C’est d’ailleurs ce que j’explique dans un guide des bonnes pratiques publié fin 2024, où j’ai coordonné les contributions au Hub France IA d’acteurs français de l’IA (voir le lien suivant : https://www.normandie.cci.fr/sites/g/files/mwbcuj1116/files/2025-08/Guide_pratique_IA_ethique_version-2.pdf).

Les Robots : Comment passe-t-on de l’éthique à un cadre réglementaire applicable au quotidien ?

Thomas : En tant que questionnement sur nos cadres culturels, l’éthique est par nature fragile. Cette fragilité essentielle doit nous amener à questionner nos conventions. Ce qui était admis hier, l’est-il encore aujourd’hui ? Mais c’est aussi pour cela que nous devons alerter sur le respect des droits fondamentaux, en appliquant par exemple une éthique opérationnelle à travers 7 principes : « sûreté, impact durable, autonomie, responsabilité humaine, explicabilité, équité et respect de la vie privée ».

Au-delà de ces principes, ayons conscience que le temps de l’IA Générative, n’est pas celui du juriste et encore moins celui du philosophe. Les usages se renouvellent rapidement et précèdent la réglementation. Il nous faut en conséquence toujours expérimenter, puis fort de l’expérience, observer et apporter des garanties pour le respect de l’éthique. C’est par exemple, l’idée du marquage des contenus générés par l’IA (sur lequel je suis en ce moment consulté, le Règlement européen sur l’IA prévoyant son application sur nos marchés d’ici février 2027) ; marquage qui sera détecté, et permettra de faire la différence entre réel et artificiel. Il y a toujours eu cette dualité avec l’expérimentation et la science. Aristote en fait déjà cas, il n’y a pas de science sans expérience, et ce trait s’applique aussi à l’IA.

Les Robots : Justement qu’en pense le philosophe que tu es ?

Thomas : Le philosophe se nourrit d’observations, puis prend le temps d’interroger. Nous aurons toujours un cran de retard sur la technologie, et devons donc ajuster et tenter de cadrer les nouvelles pratiques suivant nos valeurs. Plongeons dans l’histoire, évitons la cruauté du  « plus jamais ça ». C’est pour cette raison que nous devons ensemble travailler sur la responsabilité, et clarifier celle de chaque acteur, concepteur ou producteur d’un système d’intelligence artificielle. Comme nous le rappelons dans le guide pratique : « la responsabilité exprime le devoir de répondre de ses actes, toutes circonstances et conséquences comprises, c’est-à-dire d’en assumer l’énonciation, l’effectuation et par suite la réparation voire la sanction lorsque l’attendu n’est pas obtenu. »

Merci Thomas !

Envie de découvrir chaque mois une nouvelle interview EdTech? Une seule chose à faire, vous inscrire à notre newsletter qui vous donnera Des Nouvelles de Simone !!