|
Moteur de recherche
|
 |
|
Message de
Léon XIV : Face à l'IA, préserver les voix et les visages humains
|
Le 25 janvier 2026 -
E.S.M.
- Dans son message pour la 60e
Journée mondiale des communications sociales, le pape
Léon XIV a adressé un avertissement clair : à l'ère
numérique, il faut préserver la communication en
protégeant la voix et le visage humains contre une
technologie capable de les simuler, de les manipuler et
de les vider de leur vérité.
|
|
Léon XIV -
Pour agrandir
l'image ►
Cliquer
Face à l'IA, préserver les voix et les visages humains; le message du pape
pour la 60e journée des communications internationales
Le
25 janvier 2026 -
E.S.M. - Le 24 janvier 2026, le pape Léon XIV a adressé son
message pour la 60e Journée mondiale des communications sociales,
axé sur un avertissement clair : à l'ère numérique, « préserver » la
communication signifie protéger la voix et le visage humains contre
une technologie capable de les simuler, de les manipuler et de les
vider de leur vérité. Le Souverain Pontife présente cette question
comme un défi non seulement technique, mais aussi anthropologique,
car ce qui est en jeu, c'est la dignité de la personne et la
possibilité même d'une rencontre authentique.
Dans son message (ci-dessous), Léon XIV met en garde contre la
dynamique des réseaux et des algorithmes qui récompensent l'émotion
rapide et poussent à la polarisation ; contre une confiance aveugle
dans l'IA en tant qu'« oracle » ; et contre les risques liés
aux bots, aux deepfakes et aux « réalités parallèles » qui
érodent la confiance du public. Face à cela, il propose une alliance
possible, mais exigeante, fondée sur la responsabilité, la
coopération et l'éducation, en réclamant la transparence des
plateformes et des développeurs, des réglementations qui protègent
la dignité humaine et un journalisme qui ne renonce pas à la
vérification et à la recherche de la vérité.
MESSAGE DE SA SAINTETÉ LE PAPE LÉON XIV
À L'OCCASION DE LA 60E JOURNÉE MONDIALE DES COMMUNICATIONS
INTERNATIONALES
Préserver les voix et les visages humains
Chers frères et sœurs !
Le visage et la voix sont des traits uniques et distinctifs de
chaque personne ; ils manifestent son identité irremplaçable et
constituent l'élément fondamental de toute rencontre. Les Anciens le
savaient bien. Ainsi, pour définir la personne humaine, les Grecs
anciens utilisaient le mot « visage » ( prósōpon ), qui,
étymologiquement, désigne ce qui se trouve devant le regard, le lieu
de la présence et de la relation. Le terme latin persona (de per-sonare ),
quant à lui, inclut le son : non pas n'importe quel son, mais la
voix si particulière d'une personne.
Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu,
qui nous a créés à son image et à sa ressemblance, nous appelant à
la vie par la Parole qu’il nous a lui-même adressée ; une Parole qui
a d’abord résonné à travers les siècles dans la voix des prophètes,
puis s’est faite chair dans la plénitude des temps. Cette Parole –
cette communication que Dieu fait de lui-même – nous avons aussi pu
l’entendre et la voir directement (cf. 1 Jn 1, 1-3), car elle s’est
révélée dans la voix et le visage de Jésus, le Fils de Dieu.
Dès sa création, Dieu a voulu l’homme pour interlocuteur et, comme
le dit
saint Grégoire de Nysse [1], il a imprimé sur son visage le
reflet de l’amour divin, afin qu’il puisse vivre pleinement son
humanité par l’amour. Préserver les visages et les voix humaines,
c’est donc préserver cette marque, ce reflet indélébile de l’amour
de Dieu. Nous ne sommes pas une espèce constituée d’algorithmes
biochimiques, définis d’avance. Chacun de nous a une vocation
irremplaçable et inimitable qui émerge de la vie et se manifeste
précisément dans la communication avec autrui.
Si nous ne parvenons pas à nous en protéger, les technologies
numériques risquent de bouleverser radicalement certains piliers
fondamentaux de la civilisation humaine, que nous tenons parfois
pour acquis. En simulant les voix et les visages humains, la sagesse
et le savoir, la conscience et la responsabilité, l'empathie et
l'amitié, les systèmes que l'on appelle intelligence artificielle
perturbent non seulement les écosystèmes informationnels, mais
s'immiscent également au niveau le plus profond de la
communication : celui des relations interpersonnelles.
Le défi n’est donc pas technologique, mais anthropologique. Protéger
les visages et les voix, c’est en fin de compte se protéger
soi-même. Saisir les opportunités offertes par le numérique et
l’intelligence artificielle avec courage, détermination et
discernement ne signifie pas se voiler la face face aux problèmes
critiques, aux zones d’ombre et aux risques.
N'abandonnez pas votre propre pensée
Il existe depuis longtemps de nombreuses preuves que les algorithmes
conçus pour maximiser l'engagement sur les réseaux sociaux — ce qui
est profitable aux plateformes — privilégient les émotions
impulsives et pénalisent les expressions humaines plus réfléchies,
comme l'effort de compréhension et de réflexion. En enfermant des
groupes de personnes dans des bulles de consensus et d'indignation
faciles, ces algorithmes affaiblissent la capacité d'écoute et de
pensée critique, et accentuent la polarisation sociale.
À cela s'ajoute une confiance naïve et aveugle en l'intelligence
artificielle, perçue comme un « ami » omniscient, dispensateur de
toutes les informations, dépositaire de tous les souvenirs, « oracle
» de tous les conseils. Tout cela risque d'éroder davantage notre
capacité à penser de manière analytique et créative, à comprendre le
sens et à distinguer la syntaxe de la sémantique.
Bien que l'IA puisse apporter un soutien et une assistance dans la
gestion des tâches de communication, le fait de se soustraire à
l'effort de notre propre réflexion et de se contenter d'une
compilation statistique artificielle risque d'éroder nos capacités
cognitives, émotionnelles et de communication à long terme.
Ces dernières années, les systèmes d'intelligence artificielle ont
pris une place de plus en plus importante dans la production de
textes, de musique et de vidéos. Une grande partie du secteur
créatif humain risque ainsi d'être démantelée et remplacée par
l'étiquette « Propulsé par l'IA », transformant les individus en
simples consommateurs passifs de pensées irréfléchies, de produits
anonymes, non autorisés et délaissés. Parallèlement, les
chefs-d'œuvre du génie humain en musique, en art et en littérature
sont réduits à de simples terrains d'entraînement pour les machines.
La question qui nous importe, cependant, n'est pas ce que la machine
peut ou pourra faire, mais ce que nous pouvons et pourrons faire, en
progressant en humanité et en connaissance, grâce à l'utilisation
judicieuse de ces puissants outils à notre service. L'être humain a
toujours été tenté de s'approprier les fruits du savoir sans effort
d'implication, de recherche et de responsabilité personnelle.
Renoncer au processus créatif et confier nos fonctions mentales et
notre imagination aux machines, c'est pourtant enterrer les talents
que nous avons reçus pour grandir en tant qu'êtres humains, dans
notre relation à Dieu et aux autres. C'est se cacher et faire taire
sa voix.
Être ou faire semblant : simuler les
relations et la réalité
En parcourant nos flux d'informations, il devient de plus en plus
difficile de déterminer si nous interagissons avec d'autres humains
ou avec des « bots » ou des « influenceurs virtuels ». Les
interventions opaques de ces agents automatisés influencent les
débats publics et les choix des individus. Les chatbots basés sur de
grands modèles linguistiques (GML), en particulier, se révèlent
étonnamment efficaces pour une persuasion insidieuse, grâce à
l'optimisation continue des interactions personnalisées. La
structure dialogique, adaptative et mimétique de ces modèles
linguistiques est capable d'imiter les sentiments humains et ainsi
de simuler une relation. Cette anthropomorphisation, qui peut même
être amusante, est aussi trompeuse, surtout pour les plus
vulnérables. Car les chatbots rendus excessivement « affectueux »,
en plus d'être toujours présents et disponibles, peuvent devenir des
architectes discrets de nos états émotionnels et ainsi envahir notre
sphère privée.
Les technologies qui exploitent notre besoin de connexion peuvent
non seulement avoir des conséquences douloureuses pour le destin des
individus, mais aussi nuire au tissu social, culturel et politique
des sociétés. Cela se produit lorsque nous substituons les relations
humaines par des relations avec des IA entraînées à cataloguer nos
pensées et à construire ainsi autour de nous un monde de miroirs, où
tout est fait « à notre image et à notre ressemblance ». De
cette manière, nous nous privons de la possibilité de rencontrer
l'autre, toujours différent de nous, avec qui nous pouvons et devons
apprendre à dialoguer. Sans acceptation de l'altérité, il ne peut y
avoir ni relation ni amitié.
Un autre défi majeur que posent ces systèmes émergents est celui des
biais qui entraînent l'acquisition et la transmission d'une
perception altérée de la réalité. Les modèles d'IA sont façonnés par
la vision du monde de ceux qui les conçoivent et peuvent, à leur
tour, imposer des modes de pensée en reproduisant les stéréotypes et
les biais présents dans les données qu'ils utilisent. Le manque de
transparence dans la conception des algorithmes, associé à une
représentation sociale insuffisante des données, tend à nous piéger
dans des réseaux qui manipulent nos pensées et perpétuent et
aggravent les inégalités et les injustices sociales existantes.
Le risque est considérable. La puissance de la simulation est telle
que l'IA peut même nous tromper en fabriquant des « réalités »
parallèles, en s'appropriant nos visages et nos voix. Nous sommes
plongés dans une multidimensionnalité où il devient de plus en plus
difficile de distinguer le réel de la fiction.
À cela s'ajoute le problème de l'inexactitude. Les systèmes qui
présentent les probabilités statistiques comme des connaissances ne
nous offrent en réalité, au mieux, que des approximations de la
vérité, parfois même de véritables hallucinations. Le manque de
vérification des sources, conjugué à la crise du journalisme de
terrain – qui exige une collecte et une vérification constantes des
informations sur le terrain – peut créer un terreau encore plus
fertile pour la désinformation, engendrant un sentiment croissant de
méfiance, de confusion et d'insécurité.
Une alliance possible
Derrière cette immense force invisible qui nous concerne tous, se
cachent quelques entreprises, celles dont les fondateurs ont
récemment été présentés comme les créateurs de la « personnalité de
l’année 2025 », à savoir les architectes de l’intelligence
artificielle. Ceci soulève de sérieuses inquiétudes quant au
contrôle oligopolistique des systèmes algorithmiques et
d’intelligence artificielle capables d’influencer subtilement les
comportements et même de réécrire l’histoire humaine – y compris
celle de l’Église – souvent à notre insu.
Le défi qui nous attend n'est pas de freiner l'innovation numérique,
mais de l'orienter, de prendre conscience de sa nature ambivalente.
Il appartient à chacun d'entre nous de se faire entendre pour
défendre l'humanité, afin que ces outils puissent être véritablement
intégrés par nous, en tant qu'alliés.
Cette alliance est possible, mais elle doit reposer sur trois
piliers : la responsabilité , la coopération et l’éducation.
Tout d'abord, la responsabilité. Selon le rôle, elle peut se définir
comme l'honnêteté, la transparence, le courage, la vision, le devoir
de partager les connaissances ou le droit à l'information. Mais en
général, nul ne peut se soustraire à sa responsabilité quant à
l'avenir que nous construisons.
Pour les dirigeants des plateformes en ligne, cela signifie veiller
à ce que leurs stratégies commerciales soient guidées non seulement
par la maximisation des profits, mais aussi par une vision à long
terme qui prenne en compte le bien commun, tout comme chacun d'eux
se soucie du bien-être de ses enfants.
Les créateurs et développeurs de modèles d'IA sont tenus de faire
preuve de transparence et de responsabilité sociale concernant les
principes de conception et les systèmes de modération qui
sous-tendent leurs algorithmes et modèles développés, afin de
favoriser un consentement éclairé des utilisateurs.
La même responsabilité incombe également aux législateurs nationaux
et aux organismes de réglementation supranationaux, qui sont chargés
de garantir le respect de la dignité humaine. Une réglementation
appropriée peut protéger les individus contre les attachements
émotionnels aux chatbots et contenir la diffusion de contenus faux,
manipulateurs ou trompeurs, préservant ainsi l'intégrité de
l'information face aux simulations trompeuses.
Les entreprises de médias et de communication, quant à elles, ne
peuvent laisser des algorithmes, obnubilés par la conquête de
quelques secondes d'attention à tout prix, primer sur leurs valeurs
professionnelles, axées sur la recherche de la vérité. La confiance
du public se gagne par l'exactitude et la transparence, et non par
la course effrénée à l'engagement. Les contenus générés ou manipulés
par l'IA doivent être clairement identifiés et distingués des
contenus créés par des humains. La paternité et la propriété
intellectuelle des œuvres des journalistes et autres créateurs de
contenu doivent être protégées. L'information est un bien public. Un
service public constructif et pertinent ne repose pas sur l'opacité,
mais sur la transparence des sources, l'implication des parties
prenantes et un haut niveau de qualité.
Nous sommes tous appelés à coopérer. Aucun secteur ne peut relever
seul le défi de l'innovation numérique et de la gouvernance de l'IA.
Il est donc indispensable de créer des mécanismes de protection.
Toutes les parties prenantes – de l'industrie technologique aux
autorités de régulation, des entreprises créatives au monde
universitaire, des artistes aux journalistes, en passant par les
enseignants – doivent participer à la construction et à la mise en
œuvre d'une citoyenneté numérique éclairée et responsable.
Voilà ce que vise l’éducation : accroître notre capacité personnelle
de réflexion critique, évaluer la fiabilité des sources et les
intérêts possibles qui sous-tendent la sélection des informations
qui nous parviennent, comprendre les mécanismes psychologiques qui
les activent, permettre à nos familles, communautés et associations
de développer des critères pratiques pour une culture de la
communication plus saine et plus responsable.
C’est précisément pour cette raison qu’il est de plus en plus urgent
d’intégrer l’éducation aux médias, à l’information et à
l’intelligence artificielle dans les systèmes éducatifs à tous les
niveaux, une pratique déjà encouragée par certaines institutions
civiles. En tant que catholiques, nous pouvons et devons contribuer
à ce que chacun, et notamment les jeunes, acquière la capacité de
penser de manière critique et s’épanouisse dans la liberté
spirituelle. Cette éducation devrait également s’inscrire dans des
initiatives plus larges d’éducation tout au long de la vie, afin
d’atteindre aussi les personnes âgées et les membres marginalisés de
la société, qui se sentent souvent exclus et impuissants face à
l’évolution technologique rapide.
La maîtrise des médias, de l'information et de l'intelligence
artificielle permettra à chacun d'éviter la dérive anthropomorphique
de ces systèmes et de les considérer comme de simples outils. Il est
essentiel de toujours vérifier les sources fournies par les systèmes
d'IA (qui peuvent être inexactes ou erronées) et de protéger sa vie
privée et ses données en comprenant les paramètres de sécurité et
les possibilités de contestation. Il est important de s'informer et
de se former à une utilisation responsable de l'IA, et notamment de
protéger son image (photos et enregistrements audio), son visage et
sa voix, afin d'empêcher leur utilisation pour créer des contenus et
des comportements nuisibles tels que la fraude numérique, le
cyberharcèlement et les deepfakes , qui violent la vie privée et
l'intimité des personnes sans leur consentement. De même que la
révolution industrielle a nécessité l'alphabétisation de base pour
permettre aux individus de s'adapter aux nouveautés, la révolution
numérique exige une culture numérique (ainsi qu'une éducation
humaniste et culturelle) pour comprendre comment les algorithmes
façonnent notre perception de la réalité, comment fonctionnent les
biais de l'IA, quels mécanismes déterminent l'apparition de certains
contenus dans nos flux d'information , et quels sont les fondements
et les modèles économiques de l'économie de l'IA et leur évolution
potentielle.
Nous avons besoin du visage et de la voix pour exprimer à nouveau la
personne. Nous devons chérir le don de la communication comme la
vérité la plus profonde de l'humanité, vers laquelle doivent tendre
toutes nos innovations technologiques.
En partageant ces réflexions, je remercie tous ceux qui œuvrent à la
réalisation des objectifs énoncés ici et je bénis de tout cœur tous
ceux qui travaillent pour le bien commun par le biais des médias.
Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.
LEO PP. XIV
[1] « Le fait d’être créé à l’image
de Dieu signifie que l’homme, dès le moment de sa création, a été
marqué d’un caractère royal [...]. Dieu est amour et source d’amour
: le divin Créateur a également placé ce trait sur notre visage,
afin que par l’amour – reflet de l’amour divin – l’être humain
puisse reconnaître et manifester la dignité de sa nature et sa
ressemblance avec son Créateur » (cf. saint Grégoire de Nysse, La
Création de l’homme : PG 44, 137).
Copyright © Dicastère pour la Communication - Libreria
Editrice Vaticana
Articles les plus
récents :
-
Mgr Gänswein se réjouit du retour à la normale avec Léon XIV
-
Défendons le pape émérite Benoît XVI contre ces accusations abjectes dans le dossier des abus
-
Tiraillée entre l’Europe et la Russie, l’Église arménienne se déchire et Rome applaudit
-
Léon XIV, la longue transition
-
Confrontation entre le cardinal Zen et la synodalité
|
Les lecteurs qui
désirent consulter les derniers articles publiés par le site
Eucharistie Sacrement de la Miséricorde, peuvent
cliquer sur le lien suivant
► E.S.M.
sur Google actualité |
Sources
:
-
E.S.M.
Ce document est destiné à l'information; il ne
constitue pas un document officiel
Eucharistie sacrement de la miséricorde -
(E.S.M.) 25.01.2026
|