ЮАР отозвала национальную политику в области ИИ из-за «галлюцинаций» нейросети

1

Южно-Африканская Республика официально отозвала проект национальной политики в области искусственного интеллекта после того, как расследование показало, что несколько академических цитат в документе были полностью сфабрикованы ИИ.

Решение, объявленное министром связи Солли Малаци, было принято после обнаружения того, что политика — призванная определить технологическое будущее страны — была скомпрометирована «галлюцинациями». Это феномен, при котором генеративный ИИ создает правдоподобную, но несуществующую информацию.

Кризис доверия

Проект политики изначально задумывался для того, чтобы утвердить ЮАР в роли регионального лидера в области инноваций ИИ. Он предлагал комплексную нормативно-правовую базу, включая:
— Создание национальной комиссии по ИИ.
— Формирование совета по этике ИИ.
— Учреждение регуляторного органа в сфере ИИ.
— Финансовые стимулы, такие как налоговые льготы и гранты, для поощрения инвестиций частного сектора в инфраструктуру ИИ.

Однако авторитет документа был подорван, когда журналисты издания News24 обнаружили, что как минимум шесть из 67 академических цитат, использованных для обоснования положений политики, не существуют в реальности. Хотя упомянутые журналы — такие как South African Journal of Philosophy и AI & Society — являются легитимными, редакторы этих изданий подтвердили, что цитируемые статьи были выдуманы.

Почему это важно: проблема «галлюцинаций»

Этот инцидент является резонансным примером растущей проблемы в эпоху больших языковых моделей (LLM). Такие инструменты, как ChatGPT и Google Gemini, предназначены для предсказания наиболее статистически вероятного следующего слова в последовательности, а не для проверки фактов. Когда эти модели сталкиваются с пробелами в своих обучающих данных, они часто «заполняют пустоты» информацией, которая звучит авторитетно, но является полностью ложной.

Это не единичный случай. Последствия для академической среды и государственного управления весьма значительны:
Рост частоты ошибок: Исследование в журнале Nature отметило резкое увеличение количества ошибок, созданных ИИ: доля научных работ, содержащих «галлюцинированные» цитаты, подскочила с 0,3% в 2024 году до более чем 2,5% в 2025 году.
Масштаб последствий: По оценкам, в 2025 году было опубликовано около 110 000 работ, содержащих недействительные ссылки.
Институциональный риск: Когда политики полагаются на непроверенные результаты работы ИИ, они рискуют строить государственные законы на фундаменте дезинформации.

Дальнейшие шаги

Министр Малаци подчеркнул, что это не просто технический сбой, а фундаментальный провал системы контроля.

«Этот провал — не просто техническая проблема; он подорвал целостность и авторитет проекта политики», — заявил Малаци в социальной сети X (бывший Twitter).

Министр указал, что виновные в ошибке при подготовке документа понесут ответственность, и подчеркнул, что политика пройдет процесс тщательной переработки, прежде чем будет снова представлена на общественное обсуждение.

Заключение

Отзыв политики в области ИИ в Южной Африке служит суровым предупреждением для правительств и институтов по всему миру: хотя ИИ может ускорить процесс подготовки документов, он не может заменить необходимость в строгой проверке человеком, которая необходима для обеспечения точности и институционального доверия.