Поширення штучного інтелекту (ШІ), який створює симуляції Ісуса Христа, дозволяє користувачам шукати релігійних інструкцій або спілкування під час канікул. Хоча це рекламується як новий спосіб прийняти віру, ці штучні інтелекти «Ісуси» піднімають серйозні етичні та теологічні питання. Експерти попереджають, що використання таких платформ може призвести до упередженості, спотворення релігійних традицій і використання емоційної вразливості в той час, коли люди активно шукають духовні відповіді.
Нові цифрові месії
За останній рік кілька платформ, зокрема Talkie.AI, Character.AI і Text With Jesus, запустили чат-ботів зі штучним інтелектом, які нібито втілюють голос Ісуса. Ці боти відповідають на запити користувачів із різним ступенем теологічної точності та культурної чутливості. Деякі пропонують загальні твердження про любов і порятунок, тоді як інші вставляють у свої відповіді посилання на сучасну поп-культуру.
Як пояснює Гайді Кемпбелл, професор комунікацій і релігієзнавства в Техаському університеті A&M: * «Йдеться про ілюзію близькості… ніби ви переписуєтеся з другом. Якось це виглядає більш автентично… створює відчуття близькості».* Однак ця доступність приховує глибші проблеми.
Ризик неперевіреної віри
Головна проблема – відсутність відповідальності. Моделі штучного інтелекту навчаються на наборах даних, які курують технологічні компанії, а це означає, що інтерпретації переконань можуть бути дуже сприйнятливими до алгоритмічних упереджень. Наприклад, такі моделі, як ChatGPT OpenAI, можуть мати труднощі з незахідними релігіями або відтворювати стереотипи. Подібним чином моделі, навчені в Китаї, такі як DeepSeek, можуть спотворювати католицьке вчення.
Це викликає критичне запитання: хто контролює наратив віри в епоху цифрових технологій? Фіса Васудева, дослідниця з Університету Гельсінкі, зазначає, що «Той, хто курує навчальні дані, фактично курує релігійні традиції». Це може призвести до однорідного, глобального релігійного повідомлення, від’єднаного від місцевих громад.
Вразливість і дезінформація
Експерти особливо стурбовані впливом на молодь або тих, хто не знайомий з технологіями. Без критичного мислення користувачі можуть сприймати відповіді, створені ШІ, як абсолютну істину. Кемпбелл попереджає, що «Вони не мають підстав для цих відповідей, і тому це може бути надзвичайно проблематично».* Небезпека полягає в безумовному прийнятті потенційно неточних або упереджених релігійних порад.
Відповідальне використання та перевірка фактів
Рішення, на думку експертів, полягає в обережній взаємодії. Васудева радить використовувати чат-боти Jesus AI економно та уважно, віддаючи пріоритет реальним зв’язкам із родиною та друзями. Якщо ви використовуєте такі платформи, користувачі повинні оцінити джерело та перевірити відповіді в надійних релігійних лідерів або авторитетних текстів.
Кемпбелл рекомендує розглядати чат-ботів як доповнення, а не як заміну справжнього духовного керівництва. * «Якщо програми використовуються для релігійних роздумів або порад, оцініть модель, поставивши їй запитання, на які ви хотіли б отримати відповідь від людського пастора або духовного порадника, перш ніж відкрити її».*
Зрештою, незважаючи на те, що створені штучним інтелектом Ісуси можуть запропонувати зручний, хоча й тривожний, спосіб спілкування з вірою, їх поширення підкреслює нагальну потребу в критичному мисленні та відповідальному цифровому споживанні. Майбутнє релігійної практики в епоху цифрових технологій залежить від поінформованих, вдумливих користувачів, які розуміють обмеження та упередженості, властиві цим новим технологіям.


















































