L’intelligence artificielle (IA) s’est imposée dans nos vies de manière soudaine et massive. Avec elle, une nouvelle forme d’interaction avec la machine a émergé, empruntant des codes anthropomorphiques qui interrogent autant qu’ils fascinent. Cette confusion, volontaire ou non, soulève une question fondamentale : relève-t-elle d’une stratégie commerciale ou d’un questionnement plus profond sur la nature humaine ?
Le philosophe et éthicien de la technique Louis de Diesbach explore cette problématique dans son dernier ouvrage, Bonjour ChatGPT (Mardaga). Spécialiste de l’éthique appliquée aux technologies, il analyse les implications philosophiques et sociétales des interactions homme-machine.
Une révolution plus sociale que technologique
Si le développement de l’IA n’est pas nouveau, sa démocratisation récente marque un tournant. Jadis réservée aux experts, cette technologie est désormais accessible au grand public, suscitant craintes et fantasmes. « L’IA était déjà là, mais elle restait l’apanage des ingénieurs et informaticiens. Ce qui a changé, c’est son accessibilité à tous », explique Louis de Diesbach. Cette adoption rapide s’accompagne toutefois d’un déficit de pédagogie, laissant libre cours aux interprétations dystopiques et aux discours alarmistes.
L’absence de cadre explicatif clair sur ces technologies puissantes amplifie les inquiétudes. Les médias et les auteurs spécialisés alimentent ces angoisses, contribuant à une perception parfois biaisée des avancées en IA. Face à cela, un besoin de contextualisation et d’encadrement se fait sentir.

Réguler l’IA : un défi éthique et politique
Faut-il limiter le développement des IA ? Et si oui, comment ? Louis de Diesbach souligne que la régulation ne peut être unilatérale : « Il s’agit autant d’encadrer la puissance de l’IA que de définir son champ d’application et ses usages. » L’AI Act, récemment adopté par l’Union européenne, marque une première tentative en ce sens.
Parmi les mesures proposées, l’identification claire des contenus générés par IA est une piste intéressante. Cependant, les enjeux dépassent le cadre technique : « Il s’agit d’assurer le respect des valeurs fondamentales de nos sociétés, comme la liberté et l’autonomie », souligne le philosophe. Ces questions, bien que liées à la technologie, relèvent avant tout de la politique et de la philosophie.

Qui doit encadrer l’IA ?
L’autorégulation par les entreprises du secteur reste un vœu pieux dans un contexte dominé par la compétition économique. L’idée d’un moratoire sur l’IA s’est heurtée aux réalités du marché : « Aucune entreprise ne ralentira si ses concurrents poursuivent leurs recherches », constate Louis de Diesbach.
Des initiatives transnationales, à l’image du GIEC pour le climat, sont parfois évoquées. Ursula von der Leyen a notamment proposé un « GIEC de la Tech », bien que l’efficacité de telles structures reste sujette à caution. L’urgence et la complexité du sujet rendent difficile l’élaboration d’un consensus global.

L’anthropomorphisme, un levier d’adoption
L’une des spécificités des IA conversationnelles réside dans leur capacité à imiter le langage humain. Ce choix, loin d’être anodin, facilite leur adoption. « Parler à une IA en langage naturel est plus intuitif que d’interroger un moteur de recherche classique », rappelle Louis de Diesbach. Ce phénomène repose sur un réflexe humain ancien : prêter des intentions à ce qui nous entoure, qu’il s’agisse d’animaux, d’objets ou de machines.
Les développeurs exploitent cette tendance pour rendre l’IA plus accessible. « L’enjeu est plus commercial qu’idéologique », estime le philosophe. En rendant la technologie plus attrayante, les entreprises élargissent leur audience et maximisent leur potentiel économique.
L’IA, reflet de notre société
Au-delà des considérations techniques, l’IA constitue un miroir des choix et des valeurs de nos sociétés. « Les modèles de langage reproduisent les biais et les orientations de ceux qui les conçoivent », explique Louis de Diesbach. Cette influence est parfois manifeste, notamment dans la gestion des contenus sensibles.
Elon Musk a ainsi critiqué ChatGPT pour son orientation « trop woke », mettant en lumière le rôle des entreprises dans la définition des cadres idéologiques des IA. Cette capacité à modeler la pensée collective pose question : « Le risque est d’uniformiser la pensée mondiale selon les choix d’une entreprise privée », alerte le philosophe.

L’humanité face à la technologie
L’essor de l’IA ravive une interrogation ancestrale : qu’est-ce qui définit l’humanité ? Pour Louis de Diesbach, la réponse ne réside pas dans la domination technologique, mais dans les relations humaines. « Ce qui nous rend profondément humains, c’est le lien avec autrui », affirme-t-il.
Cette réflexion l’amène à questionner notre rapport au progrès technologique. « Faut-il toujours aller vers plus de technologie ? » s’interroge-t-il. Parfois, renouer avec la simplicité des échanges humains pourrait être plus bénéfique qu’une nouvelle application censée nous rapprocher.
L’intelligence artificielle n’est donc pas seulement un enjeu technologique, mais aussi une question profondément philosophique et politique. Son développement et son encadrement nécessitent une réflexion collective sur les valeurs que nous souhaitons préserver dans un monde toujours plus numérique.
Photo de couverture© DR/Shuttterstock.com
