Los ‘Jesús’ generados por IA generan preocupación sobre la fe y los prejuicios en la temporada navideña

12

El auge de las simulaciones de Jesucristo con inteligencia artificial (IA) está permitiendo a los usuarios buscar orientación religiosa o compañía durante la temporada navideña. Si bien se comercializan como una forma novedosa de comprometerse con la fe, estos ‘Jesús’ de IA plantean importantes cuestiones éticas y teológicas. Los expertos advierten que la dependencia de dichas plataformas podría introducir prejuicios, distorsionar la tradición religiosa y explotar la vulnerabilidad emocional en una época en la que la gente busca activamente respuestas espirituales.

Los nuevos mesías digitales

Durante el año pasado, varias plataformas, incluidas Talkie.AI, Character.AI y Text With Jesus, lanzaron chatbots de IA que afirmaban encarnar la voz de Jesús. Estos robots responden a las consultas de los usuarios con distintos grados de precisión teológica y sensibilidad cultural. Algunos ofrecen declaraciones genéricas sobre el amor y la salvación, mientras que otros inyectan referencias de la cultura pop moderna en sus respuestas.

Como explica Heidi Campbell, profesora de comunicación y estudios religiosos en la Universidad Texas A&M, el atractivo radica en la ilusión de intimidad: “Es la idea… como si le estuvieras enviando un mensaje de texto a tu amigo. De alguna manera se siente más auténtico… se siente íntimo”. Esta accesibilidad, sin embargo, enmascara preocupaciones más profundas.

El riesgo de una fe no verificada

El problema central es la falta de rendición de cuentas. Los modelos de IA se entrenan con conjuntos de datos seleccionados por empresas de tecnología, lo que significa que las interpretaciones de la fe pueden verse fuertemente influenciadas por sesgos algorítmicos. Por ejemplo, modelos como ChatGPT de OpenAI pueden tener problemas con religiones no occidentales o reproducir estereotipos. De manera similar, los modelos entrenados en China como DeepSeek podrían tergiversar las enseñanzas católicas.

Esto plantea una pregunta crítica: ¿quién controla la narrativa de la fe en la era digital? Feeza Vasudeva, investigador de la Universidad de Helsinki, señala que “Quien esté curando los datos de capacitación está curando efectivamente las tradiciones religiosas”. Esto podría conducir a un mensaje religioso homogeneizado, globalmente promedio, divorciado de las comunidades locales.

Vulnerabilidad y desinformación

Los expertos están especialmente preocupados por el impacto en los jóvenes o en aquellos que no están familiarizados con la tecnología. Sin habilidades de pensamiento crítico, los usuarios pueden aceptar las respuestas generadas por la IA como una verdad absoluta. Campbell advierte que “No tienen ningún tipo de caja de resonancia para estas respuestas, y por eso eso puede ser muy problemático”. El peligro radica en la aceptación incuestionable de consejos religiosos potencialmente inexactos o sesgados.

Uso responsable y verificación de datos

La solución, sugieren los expertos, es un compromiso cauteloso. Vasudeva aconseja utilizar los chatbots AI Jesus con moderación y atención, priorizando las conexiones del mundo real con familiares y amigos. Si utilizan dichas plataformas, los usuarios deben evaluar la fuente y verificar las respuestas con líderes religiosos confiables o textos establecidos.

Campbell recomienda tratar a los chatbots como un complemento, no como un reemplazo, de una guía espiritual genuina. “Si las aplicaciones se van a utilizar para reflexión o asesoramiento religioso, evalúe el modelo haciéndole preguntas que le gustaría que respondiera un pastor humano o un asesor espiritual antes de abrirse a él”.

En última instancia, si bien los ‘Jesús’ generados por IA pueden ofrecer una forma conveniente, aunque inquietante, de comprometerse con la fe, su proliferación subraya la necesidad urgente de un pensamiento crítico y un consumo digital responsable. El futuro de la práctica religiosa en la era digital depende de usuarios informados y perspicaces que comprendan las limitaciones y sesgos inherentes a estas nuevas tecnologías.