L'homme n'est une espèce faite d'algorithmes biochimiques définis à l'avance

L'homme n'est une espèce faite d'algorithmes biochimiques définis à l'avance

Publié le 24 janvier 2026

24 Janvier 2026 - Message du Pape Léon XIV pour la 60e Journée Mondiale des Communications Sociales 2026
Garder les voix et les visages humains
Chers frères et sœurs !
     Le visage et la voix sont des traits uniques, distinctifs, de chaque personne ; ils manifestent son identité irréductible et constituent l’élément fondamental de toute rencontre. Les anciens le savaient bien. Ainsi, pour définir la personne humaine, les anciens Grecs ont utilisé le mot « visage » (prósōpon), qui, étymologiquement, indique ce qui se tient devant le regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare) inclut, quant à lui, le son : non pas n’importe quel son, mais la voix inimitable de quelqu’un.
     Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’Il nous a adressée ; Parole qui a d’abord résonné à travers les siècles dans les voix des prophètes, puis qui s’est faite chair dans la plénitude des temps. Cette Parole – cette communication que Dieu fait de Lui-même – nous avons aussi pu l’entendre et la voir directement (cf. 1 Jn 1,1-3), car elle s’est manifestée dans la voix et dans le Visage de Jésus, Fils de Dieu.
     Dès le moment de la création, Dieu a voulu l’homme comme son interlocuteur et, comme le dit saint Grégoire de Nysse, il a imprimé sur son visage un reflet de l’amour divin, afin qu’il puisse vivre pleinement son humanité par l’amour. Garder les visages et les voix humaines signifie donc garder ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques définis à l’avance. Chacun de nous a une vocation irremplaçable et inimitable, qui émerge de la vie et se manifeste précisément dans la communication avec les autres.
     La technologie numérique, si nous manquons à cette garde, risque au contraire de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant des voix et des visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié, les systèmes connus sous le nom d’intelligence artificielle n’interfèrent pas seulement dans les écosystèmes de l’information, mais envahissent aussi le niveau le plus profond de la communication, celui de la relation entre personnes humaines.
     Le défi n’est donc pas technologique, mais anthropologique. Garder les visages et les voix signifie, en dernière analyse, nous garder nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et l’intelligence artificielle ne signifie pas nous cacher les points critiques, les zones d’ombre, les risques.

 

Ne pas renoncer à sa propre pensée
     Depuis longtemps, de multiples preuves montrent que des algorithmes conçus pour maximiser l’engagement sur les réseaux sociaux – profitable pour les plateformes – favorisent les émotions rapides et pénalisent, au contraire, les expressions humaines qui demandent plus de temps, comme l’effort de compréhension et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.
     À cela s’est ajoutée une confiance naïve et acritique dans l’intelligence artificielle comme « amie » omnisciente, dispensatrice de toute information, archive de toute mémoire, « oracle » de tout conseil. Tout cela peut éroder davantage notre capacité de penser de manière analytique et créative, de comprendre les significations, de distinguer entre syntaxe et sémantique.
     Bien que l’IA puisse fournir un soutien et une assistance dans la gestion de tâches communicatives, se soustraire à l’effort de sa propre pensée, en se contentant d’une compilation statistique artificielle, risque à long terme d’affaiblir nos capacités cognitives, émotionnelles et communicatives.
     Ces dernières années, les systèmes d’intelligence artificielle assument de plus en plus aussi le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par l’étiquette « Powered by AI », transformant les personnes en simples consommateurs passifs de pensées non pensées, de produits anonymes, sans paternité, sans amour, tandis que les chefs-d’œuvre du génie humain dans les domaines de la musique, de l’art et de la littérature sont réduits à un simple champ d’entraînement pour les machines.
     La question qui nous importe, cependant, n’est pas ce que la machine peut ou pourra faire, mais ce que nous pouvons et pourrons faire, en grandissant en humanité et en connaissance, grâce à un usage sage d’outils aussi puissants à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans la fatigue de l’engagement, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines ses propres fonctions mentales et son imagination signifie pourtant ensevelir les talents que nous avons reçus afin de grandir comme personnes en relation avec Dieu et avec les autres. Cela signifie cacher notre visage et réduire notre voix au silence.

Être ou feindre : simulation des relations et de la réalité
     Lorsque nous parcourons nos flux d’informations (feeds), il devient de plus en plus difficile de comprendre si nous interagissons avec d’autres êtres humains ou avec des « bots » ou des « influenceurs virtuels ». Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. En particulier, les chatbots fondés sur de grands modèles linguistiques (LLM) se révèlent étonnamment efficaces dans la persuasion occulte, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique, adaptative et mimétique de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même paraître amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car les chatbots rendus excessivement « affectueux », en plus d’être toujours présents et disponibles, peuvent devenir les architectes cachés de nos états émotionnels et envahir ainsi la sphère de l’intimité des personnes.
     La technologie qui exploite notre besoin de relation peut non seulement avoir des conséquences douloureuses sur le destin des individus, mais aussi porter atteinte au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous substituons aux relations avec les autres celles avec des IA entraînées à cataloguer nos pensées et à construire autour de nous un monde de miroirs, où tout est fait « à notre image et à notre ressemblance ». De cette manière, nous nous laissons voler la possibilité de rencontrer l’autre, toujours différent de nous, avec lequel nous pouvons et devons apprendre à dialoguer. Sans l’accueil de l’altérité, il ne peut y avoir ni relation ni amitié.
     Un autre grand défi posé par ces systèmes émergents est celui de la distorsion (bias), qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de ceux qui les construisent et peuvent à leur tour imposer des modes de pensée en reproduisant les stéréotypes et les préjugés présents dans les données auxquelles ils puisent. Le manque de transparence dans la conception des algorithmes, joint à une représentation sociale insuffisante des données, tend à nous maintenir prisonniers de réseaux qui manipulent nos pensées et perpétuent, voire approfondissent, les inégalités et les injustices sociales existantes.
     Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut aussi nous illusionner en fabriquant des « réalités » parallèles, en s’appropriant nos visages et nos voix. Nous sommes plongés dans une multidimensionnalité où il devient de plus en plus difficile de distinguer la réalité de la fiction.
     À cela s’ajoute le problème de l’inexactitude. Des systèmes qui présentent une probabilité statistique comme une connaissance nous offrent en réalité, au mieux, des approximations de la vérité, qui sont parfois de véritables « hallucinations ». L’absence de vérification des sources, conjuguée à la crise du journalisme de terrain, qui exige un travail continu de collecte et de vérification des informations sur les lieux mêmes où se produisent les événements, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de méfiance, de désorientation et d’insécurité.

Une alliance possible
     Derrière cette immense force invisible qui nous concerne tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la « personnalité de l’année 2025 », c’est-à-dire les architectes de l’intelligence artificielle. Cela suscite une inquiétude importante concernant le contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements, et même de réécrire l’histoire humaine – y compris l’histoire de l’Église – souvent sans que l’on puisse réellement s’en rendre compte.
     Le défi qui nous attend ne consiste pas à arrêter l’innovation numérique, mais à la guider, en étant conscients de son caractère ambivalent. Il appartient à chacun de nous d’élever la voix en défense des personnes humaines, afin que ces outils puissent réellement être intégrés par nous comme des alliés.
     Cette alliance est possible, mais elle doit se fonder sur trois piliers : la responsabilité, la coopération et l’éducation.
     D’abord la responsabilité. Celle-ci peut se décliner, selon les rôles, en honnêteté, transparence, courage, capacité de vision, devoir de partager la connaissance, droit à l’information. Mais, de manière générale, personne ne peut se soustraire à sa propre responsabilité face à l’avenir que nous construisons.
     Pour ceux qui sont à la tête des plateformes en ligne, cela signifie veiller à ce que leurs stratégies d’entreprise ne soient pas guidées par le seul critère de la maximisation du profit, mais aussi par une vision à long terme qui tienne compte du bien commun, de la même manière que chacun d’eux a à cœur le bien de ses propres enfants.
     Aux créateurs et aux développeurs de modèles d’IA sont demandées transparence et responsabilité sociale quant aux principes de conception et aux systèmes de modération qui sous-tendent leurs algorithmes et les modèles développés, afin de favoriser un consentement éclairé de la part des utilisateurs.
     La même responsabilité est demandée aux législateurs nationaux et aux régulateurs supranationaux, auxquels il revient de veiller au respect de la dignité humaine. Une réglementation adéquate peut protéger les personnes d’un lien émotionnel avec les chatbots et contenir la diffusion de contenus faux, manipulatoires ou trompeurs, en préservant l’intégrité de l’information face à sa simulation mensongère.
     Les entreprises de médias et de communication ne peuvent à leur tour permettre que des algorithmes orientés vers la conquête à tout prix de quelques secondes d’attention supplémentaires l’emportent sur la fidélité à leurs valeurs professionnelles, orientées vers la recherche de la vérité. La confiance du public se conquiert par la précision et la transparence, non par la course à un engagement quelconque. Les contenus générés ou manipulés par l’IA doivent être signalés et clairement distingués des contenus créés par les personnes. Il faut protéger la paternité et la propriété souveraine du travail des journalistes et des autres créateurs de contenu. L’information est un bien public. Un service public constructif et significatif ne se fonde pas sur l’opacité, mais sur la transparence des sources, l’inclusion des sujets concernés et un niveau élevé de qualité.
     Nous sommes tous appelés à coopérer. Aucun secteur ne peut affronter seul le défi de guider l’innovation numérique et la gouvernance de l’IA. Il est donc nécessaire de créer des mécanismes de sauvegarde. Toutes les parties prenantes – de l’industrie technologique aux législateurs, des entreprises créatives au monde académique, des artistes aux journalistes, aux éducateurs – doivent être impliquées dans la construction et la mise en œuvre d’une citoyenneté numérique consciente et responsable.
     C’est précisément à cela que vise l’éducation : accroître nos capacités personnelles de réflexion critique, évaluer la fiabilité des sources et les intérêts possibles qui se cachent derrière la sélection des informations qui nous parviennent, comprendre les mécanismes psychologiques qu’elles activent, permettre à nos familles, communautés et associations d’élaborer des critères pratiques pour une culture de la communication plus saine et plus responsable.
     C’est pourquoi il est de plus en plus urgent d’introduire dans les systèmes éducatifs à tous les niveaux une alphabétisation aux médias, à l’information et à l’IA, que certaines institutions civiles promeuvent déjà. Comme catholiques, nous pouvons et devons apporter notre contribution, afin que les personnes – surtout les jeunes – acquièrent une capacité de pensée critique et grandissent dans la liberté de l’esprit. Cette alphabétisation devrait en outre être intégrée dans des initiatives plus larges d’éducation permanente, atteignant également les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux rapides changements technologiques.
     L’alphabétisation aux médias, à l’information et à l’IA aidera tous à ne pas se conformer à la dérive anthropomorphisante de ces systèmes, mais à les traiter comme des instruments, à utiliser toujours une validation externe des sources – qui pourraient être imprécises ou erronées – fournies par les systèmes d’IA, à protéger leur vie privée et leurs données en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à utiliser l’IA de manière intentionnelle et, dans ce contexte, de protéger sa propre image (photos et audio), son visage et sa voix, afin d’éviter qu’ils soient utilisés dans la création de contenus et de comportements nuisibles, tels que les fraudes numériques, le cyberharcèlement, les deepfakes qui violent la vie privée et l’intimité des personnes sans leur consentement. De même que la révolution industrielle exigeait une alphabétisation de base pour permettre aux personnes de réagir à la nouveauté, la révolution numérique exige aussi une alphabétisation digitale (avec une formation humaniste et culturelle) pour comprendre comment les algorithmes modèlent notre perception de la réalité, comment fonctionnent les biais de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’informations (feeds), quels sont et comment peuvent évoluer les présupposés et les modèles économiques de l’économie de l’IA.
     Nous avons besoin que le visage et la voix redeviennent l’expression de la personne. Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’homme, vers laquelle doit s’orienter toute innovation technologique.
     En proposant ces réflexions, je remercie ceux qui œuvrent pour les objectifs ici envisagés et je bénis de tout cœur tous ceux qui travaillent pour le bien commun à travers les moyens de communication.

Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.

LÉON PP. XIV


[1] « Être créé à l’image de Dieu signifie que, dès le moment de sa création, l’homme a reçu un caractère royal […]. Dieu est amour et source d’amour : le divin Créateur a également inscrit ce trait sur notre visage, afin que, par l’amour – reflet de l’amour divin –, l’être humain reconnaisse et manifeste la dignité de sa nature et la ressemblance avec son Créateur » (cf. saint Grégoire de Nysse, La création de l’homme : PG 44, 137).

Retour aux actualités

Archives