7-MENSAGEM DO PAPA LEÃO XIV
PARA O LX DIA MUNDIAL DAS COMUNICAÇÕES SOCIAIS
Preservar
vozes e rostos humanos
Queridos irmãos e irmãs!
O rosto e a voz são traços únicos e
distintivos de cada pessoa; manifestam a sua identidade irrepetível e são
elemento constitutivo de cada encontro. Os antigos sabiam-no bem. Para definir
o ser humano, os gregos usavam a palavra “rosto” (prósopon), que
etimologicamente indica o que está diante do olhar, o lugar da presença e da
relação. Por sua vez, o termo latino persona (de per-sonare) inclui
o som: não um som qualquer, mas a voz inconfundível de alguém.
Rosto e voz são sagrados. Foram-nos dados por
Deus, que nos criou à sua imagem e semelhança, chamando-nos à vida com a
Palavra que Ele mesmo nos dirigiu. Uma Palavra que, ao longo dos séculos,
ressoou na voz dos profetas e depois, na plenitude dos tempos, fez-se carne.
Esta Palavra – esta comunicação que Deus faz de si mesmo – pudemos ainda
escutá-la e vê-la diretamente (cf. 1 Jo 1, 1-3), porque se
deixou conhecer na voz e no Rosto de Jesus, Filho de Deus.
Desde o momento da criação, Deus quis o ser
humano como seu interlocutor e, como disse São Gregório de Nissa, [1] imprimiu no seu rosto um reflexo do
amor divino, para que pudesse viver plenamente a sua humanidade através do
amor. Preservar os rostos e as vozes humanas significa, portanto, preservar
este selo, este reflexo indelével do amor de Deus. Não somos uma espécie feita
de algoritmos bioquímicos predefinidos antecipadamente: cada pessoa possui uma
vocação insubstituível e irrepetível, que emerge da vida e se manifesta
precisamente na comunicação com os outros.
A tecnologia digital, no caso de falharmos
nesta preservação, corre o risco de alterar radicalmente alguns dos pilares
fundamentais da civilização humana, que por vezes temos como garantidos. Ao
simular vozes e rostos humanos, sabedoria e conhecimento, consciência e
responsabilidade, empatia e amizade, os sistemas conhecidos como inteligência
artificial não só interferem nos ecossistemas informativos, como também invadem
o nível mais profundo da comunicação, ou seja, o das relações entre as pessoas.
O desafio, por conseguinte, não é
tecnológico, mas antropológico. Preservar os rostos e as vozes significa, em
última análise, preservarmo-nos a nós próprios. Aceitar com coragem,
determinação e discernimento as oportunidades oferecidas pela tecnologia
digital e pela inteligência artificial não é sinônimo de esconder de nós mesmos
os pontos críticos, a opacidade e os riscos.
Não renunciar ao próprio pensamento
Há muito tempo que existem múltiplas
evidências de que os algoritmos concebidos para maximizar o envolvimento nas
redes sociais – rentável para as plataformas – recompensam as emoções rápidas
e, ao contrário, penalizam as expressões humanas que requerem mais tempo, como
o esforço para compreender e a reflexão. Ao encerrar grupos de pessoas em
bolhas de fácil consenso e indignação, estes algoritmos enfraquecem a
capacidade de escuta e pensamento crítico, aumentando a polarização social.
Veio somar-se a isto uma confiança
ingenuamente acrítica na inteligência artificial como “amiga” onisciente,
dispensadora de todas as informações, arquivo de todas as memórias, “oráculo”
de todos os conselhos. Tudo isto pode enfraquecer ulteriormente a nossa
capacidade de pensar de forma analítica e criativa, de compreender
significados, de distinguir entre sintaxe e semântica.
Embora a IA possa dar apoio e assistência na
gestão de tarefas comunicativas, ao abstermo-nos do esforço do próprio
pensamento, contentando-nos com uma compilação estatística artificial, corremos
o risco de deteriorar, a longo prazo, as nossas capacidades cognitivas,
emocionais e comunicativas.
Nos últimos anos, os sistemas de inteligência
artificial estão a assumir cada vez mais o controlo da produção de textos,
música e vídeos. Grande parte da indústria criativa humana corre o risco de ser
destruída e substituída pela etiqueta “Powered by AI”, transformando as
pessoas em meros consumidores passivos de pensamentos não pensados, de produtos
anônimos, sem autoria nem amor. Ao mesmo tempo, as obras-primas do gênio humano
no âmbito da música, da arte e da literatura vão sendo reduzidas a um mero
campo de treino para as máquinas.
No entanto, a questão que realmente nos interessa não é o que a
máquina consegue ou conseguirá fazer, mas o que nós podemos e poderíamos fazer,
crescendo em humanidade e conhecimento, com uma inteligente utilização de
ferramentas tão poderosas ao nosso serviço. Desde sempre, o ser humano tem sido
tentado a apropriar-se do fruto do conhecimento sem o esforço do envolvimento,
da pesquisa e da responsabilidade pessoal. Contudo, renunciar ao processo
criativo e entregar às máquinas as próprias funções mentais e a própria
imaginação significa enterrar os talentos recebidos para crescer como pessoas
em relação a Deus e aos outros. Significa esconder o nosso rosto e silenciar a
nossa voz.
Ser ou fingir: simulação de relações e
da realidade
À medida que navegamos pelos nossos fluxos de
informação (feeds), torna-se cada vez mais difícil compreender se
estamos a interagir com outros seres humanos ou com “bots” ou
influenciadores virtuais. As intervenções não transparentes destes agentes
automatizados influenciam os debates públicos e as escolhas das pessoas.
Especialmente os chatbots, baseados em grandes modelos linguísticos
(LLM), estão a revelar-se surpreendentemente eficazes na persuasão oculta,
através de uma contínua otimização da interação personalizada. A estrutura
dialógica e adaptativa, mimética, destes modelos linguísticos é capaz de imitar
os sentimentos humanos e, assim, simular uma relação. Esta antropomorfização,
que pode até ser divertida, é ao mesmo tempo enganadora, especialmente para as
pessoas mais vulneráveis. Porque os chatbots tornados
excessivamente “afetuosos”, além de estarem sempre presentes e disponíveis,
podem tornar-se arquitetos ocultos dos nossos estados emocionais e, desta
forma, invadir e ocupar a esfera da intimidade das pessoas.
A tecnologia que explora a nossa necessidade
de relacionamento pode não só ter consequências dolorosas para o destino dos
indivíduos, mas também prejudicar o tecido social, cultural e político das
sociedades. Isso acontece quando substituímos as relações com os outros pelas
relações com a IA treinada para catalogar os nossos pensamentos e, portanto,
construir à nossa volta um mundo de espelhos, onde tudo é feito “à nossa imagem
e semelhança”. Desta forma, deixamo-nos roubar a possibilidade de encontrar o
outro, que é sempre diferente de nós e com o qual podemos e devemos aprender a
confrontar-nos. Sem aceitar a alteridade, não pode haver nem relação nem
amizade.
Outro grande desafio que estes sistemas
emergentes colocam é o da distorção (bias, em inglês), que leva a
adquirir e transmitir uma percepção alterada da realidade. Os modelos de IA
estão moldados pela visão do mundo de quem os constrói e podem, por sua vez,
impor modos de pensar, replicando estereótipos e preconceitos presentes nos
dados a que acedem. A falta de transparência na construção dos algoritmos, a
par da inadequada representação social dos dados tendem a manter-nos presos em
redes que manipulam os nossos pensamentos, perpetuando e aprofundando as
desigualdades e injustiças sociais existentes.
O risco é grande! O poder da simulação é tal
que a IA pode também iludir-nos com a construção de “realidades” paralelas,
apropriando-se dos nossos rostos e das nossas vozes. Estamos imersos numa
multidimensionalidade, onde se torna cada vez mais difícil distinguir a
realidade da ficção.
A isto acrescenta-se o problema da falta de
precisão. Os sistemas que apresentam como conhecimento uma probabilidade
estatística, na realidade, oferecem-nos, quando muito, aproximações da verdade,
que por vezes são verdadeiras “alucinações”. A falta de verificação das fontes,
com a crise do jornalismo no terreno, que implica um trabalho contínuo de
recolha e verificação de informações nos locais onde os eventos ocorrem, pode
favorecer um solo ainda mais fértil para a desinformação, provocando uma
crescente sensação de desconfiança, desorientação e insegurança.
Uma possível aliança
Por trás desta enorme força invisível que a
todos envolve, está apenas um pequeno grupo de empresas, cujos fundadores foram
recentemente apresentados como os criadores da “pessoa do ano de 2025”, ou
seja, os arquitetos da inteligência artificial. Isto suscita uma preocupação
importante em relação ao controlo oligopolístico dos sistemas algorítmicos e de
inteligência artificial capazes de orientar subtilmente os comportamentos e até
mesmo de reescrever a história da humanidade – incluindo a história da Igreja
–, muitas vezes sem que possamos ter real consciência disso.
O desafio que nos
espera não é impedir a inovação digital, mas sim orientá-la, estando
conscientes do seu caráter ambivalente. Cabe a cada um de nós levantar a voz em
defesa das pessoas, para que estas ferramentas possam realmente ser integradas
por nós como aliadas.
Esta aliança é possível, mas tem de se basear
em três pilares: responsabilidade, cooperação e educação.
Em primeiro lugar, a responsabilidade.
Ela pode ser definida, consoante as funções, como honestidade, transparência,
coragem, visão, dever de partilhar conhecimento, direito de ser informado.
Porém, em geral, ninguém pode fugir à sua responsabilidade diante do futuro que
estamos a construir.
Para quem está no comando das plataformas
on-line, isso significa garantir que as próprias estratégias empresariais não
sejam norteadas pelo exclusivo critério da maximização do lucro, mas por uma
visão clarividente que tenha em conta o bem comum, da mesma forma que cada um
deles se preocupa com o bem-estar dos seus filhos.
Aos criadores e desenvolvedores de modelos de
IA, é exigida transparência e responsabilidade social em relação aos princípios
de criação de projetos e aos sistemas de moderação que estão na base dos seus
algoritmos e dos modelos desenvolvidos, de modo a permitir um consentimento
esclarecido aos utilizadores.
Igual responsabilidade é pedida aos
legisladores nacionais e reguladores supranacionais, que têm a função de zelar
pelo respeito da dignidade humana. Uma adequada regulamentação pode proteger as
pessoas duma ligação afetiva com os chatbots e conter a
disseminação de conteúdos falsos, manipuladores ou deturpados, preservando a
integridade da informação face à sua simulação enganosa.
Por sua vez, as empresas dos mass
media e da comunicação não podem permitir que algoritmos orientados
para vencer a qualquer custo a batalha por alguns segundos de atenção a mais
prevaleçam sobre a fidelidade aos seus valores profissionais, voltados para a
busca da verdade. A confiança do público conquista-se com a precisão e a
transparência, não com a corrida por uma participação qualquer. Os conteúdos
gerados ou manipulados pela IA devem ser sinalizados e claramente distinguidos
dos conteúdos criados por pessoas. A autoria e a propriedade soberana do
trabalho dos jornalistas e outros criadores de conteúdo devem ser protegidas. A
informação é um bem público. Um serviço público construtivo e significativo não
se baseia na opacidade, mas na transparência das fontes, na inclusão dos
sujeitos envolvidos e num elevado padrão de qualidade.
Todos somos chamados a cooperar.
Nenhum setor pode enfrentar sozinho o desafio de liderar a inovação digital e
governar a IA. Por isso, é necessário criar mecanismos de salvaguarda. Todas as
partes interessadas – desde a indústria tecnológica aos legisladores, das
empresas de criação ao mundo académico, dos artistas aos jornalistas e
educadores – devem estar envolvidas na construção e na efetivação de uma
cidadania digital consciente e responsável.
O objetivo da educação é
este: aumentar as nossas capacidades pessoais de refletir criticamente, avaliar
a credibilidade das fontes e os possíveis interesses por trás da seleção das
informações que nos chegam, compreender os mecanismos psicológicos que elas
ativam, permitir às nossas famílias, comunidades e associações a elaboração de
critérios práticos para uma cultura de comunicação mais saudável e responsável.
Precisamente por isso, cada vez mais, é
urgente introduzir também, em todos os níveis dos sistemas educativos, a
literacia para os meios de comunicação social, a informação e a IA, que algumas
instituições civis já estão a promover. Como católicos, podemos e devemos dar o
nosso contributo, para que as pessoas – especialmente os jovens – adquiram a
capacidade de pensamento crítico e cresçam na liberdade do espírito. Esta
literacia deveria ainda ser integrada em iniciativas mais amplas de educação
permanente, alcançando igualmente os idosos e os membros marginalizados da
sociedade, que muitas vezes se sentem excluídos e impotentes perante as rápidas
mudanças tecnológicas.
A literacia para os meios de comunicação, a
informação e a IA ajudará todos a não se adaptarem à tendência de
antropomorfização destes sistemas, mas a tratá-los como ferramentas, a recorrer
sempre a uma validação externa das fontes – que podem ser imprecisas ou erradas
– fornecidas pelos sistemas de IA, a proteger a própria privacidade e os
próprios dados, conhecendo os parâmetros de segurança e as opções de
reclamação. É importante educar e educar-se para utilizar a IA de forma
intencional e, neste contexto, proteger a própria imagem (fotos e áudio), o
próprio rosto e a própria voz, para evitar que sejam utilizados na criação de
conteúdos e comportamentos prejudiciais, como fraudes digitais, ciberbullying, deepfake,
que violam a privacidade e a intimidade das pessoas sem o seu consentimento.
Assim como a revolução industrial exigiu uma alfabetização mínima para permitir
que as pessoas reagissem às novidades, também a revolução digital exige uma
literacia digital (com uma formação humanística e cultural) para compreender
como os algoritmos moldam a nossa percepção da realidade, como funcionam os
preconceitos da IA, quais são os mecanismos que determinam o aparecimento de
determinados conteúdos nos nossos fluxos de informação (feeds), quais
são e como podem mudar os pressupostos e modelos econômicos da economia da IA.
É necessário que o rosto e a voz voltem a
dizer a pessoa. É necessário preservar o dom da comunicação como a mais
profunda verdade do ser humano, para a qual também se deve orientar toda a
inovação tecnológica.
Ao propor estas reflexões, agradeço a todos
aqueles que estão a trabalhar para os objetivos aqui apresentados e, de
coração, abençoo quantos trabalham para o bem comum através dos meios de
comunicação.
Vaticano, na Memória
de São Francisco de Sales, 24 de janeiro de 2026.
LEÃO XIV PP.
[1] «Ter sido criado à imagem de Deus significa que foi impresso no homem,
desde o momento da sua criação, um caráter régio [...]. Deus é amor e fonte de
amor: o divino Criador também colocou esta característica no nosso rosto, para
que, através do amor – reflexo do amor divino –, o ser humano reconheça e
manifeste a dignidade da sua natureza e a semelhança com o seu Criador» (cf.
São Gregório de Nissa, A criação
do homem: PG 44, 137).
Nenhum comentário:
Postar um comentário