Новий чат-бот FDA зі штучним інтелектом, який схвалює ліки, не допомагає

5

Штучний інтелект в охороні здоров’я: між обіцянками та реальністю. Історія з FDA та чат-ботом Elsa-дзвінок тривоги?

Недавнє розслідування CNN, що стосується впровадження штучного інтелекту (ШІ) в Управлінні з контролю за продуктами і ліками (FDA) США, викликало бурхливу реакцію в медичному співтоваристві і за його межами. Спочатку представлений як революційний інструмент для прискорення процесу утвердження ліків та підвищення ефективності роботи регулятора, чат-бот Elsa, розроблений на основі великих мовних моделей (LLM), виявився далекий від обіцяних результатів. Історії про “галюцинації”, фальсифікації даних і нездатність до критичного аналізу змусили співробітників FDA відмовитися від його використання, а Міністерство охорони здоров’я і соціальних служб (HHS) спішно випустила спростування.

Цей епізод, безумовно, заслуговує на пильну увагу, оскільки він піднімає фундаментальні питання про готовність охорони здоров’я до впровадження ШІ, про методи оцінки та регулювання подібних технологій, і про потенційні ризики, пов’язані з надмірною залежністю від автоматизованих систем.

Обіцянка прискорення та реальність “галюцинацій”

Ідея використання ШІ для оптимізації роботи FDA виглядає привабливо. Процес затвердження нових ліків і медичних пристроїв – складний, багатоетапний і ресурсномісткий. Він вимагає аналізу величезного обсягу даних, проведення клінічних випробувань, оцінки ризиків та ефективності. Теоретично ШІ може допомогти співробітникам FDA впоратися з цим навантаженням, автоматизуючи рутинні завдання, виявляючи закономірності в даних та допомагаючи у прийнятті рішень.

Однак, як показує досвід Elsa, реальність може бути далеко не ідеальною. LLM, на яких базуються подібні чат-боти, навчаються на величезних масивах текстових даних, але не мають здатності до критичного мислення чи розуміння контексту. Вони можуть генерувати правдоподібні, але невірні відповіді, видавати за факти вигадані дослідження або невірно інтерпретувати важливі дані.

Ключовою проблемою тут є відсутність розуміння LLM. Вони не” думають ” у людському сенсі цього слова. Вони просто передбачають наступне слово в послідовності на основі статистичних закономірностей у даних, на яких вони пройшли навчання. Це робить їх вразливими до маніпуляцій та помилок, особливо у складних сферах, таких як медицина.

Чому Охорона здоров’я запізнюється з ШІ?

У Плані дій з розвитку штучного інтелекту йдеться про необхідність створення динамічної культури “спочатку спробуй” в американській промисловості. Однак, в охороні здоров’я, як і в інших критично важливих секторах, обережність і ретельність виправдані. Недовіра, складність регулювання і відсутність чітких стандартів управління ризиками – все це гальмує впровадження ШІ.

Необхідно визнати, що охорона здоров’я – це не ТА область, де можна дозволити собі експериментувати. Ціна помилки може бути занадто високою. У той час як в сфері електронної комерції або розваг невеликі недоліки можуть привести до втрати клієнтів, в охороні здоров’я вони можуть коштувати людських життів.

Що потрібно змінити?

Епізод з Elsa-це не привід відмовлятися від ідеї використання ШІ в охороні здоров’я. Навпаки, це привід для серйозного переосмислення підходів до розробки, впровадження та регулювання подібних технологій.

  1. Посилення вимог до навчання та валідації LLM: Необхідно розробити більш суворі методи навчання та перевірки LLM, щоб мінімізувати ризик “галюцинацій” та помилок. Важливо використовувати різноманітні та перевірені джерела даних, а також розробляти алгоритми, які дозволяють LLM пояснювати свої рішення.
  2. Акцент на” людино-центричному ” ШІ: ШІ слід розглядати як інструмент, який допомагає лікарям та іншим медичним працівникам, а не замінює їх. Важливо розробляти системи, які дозволяють лікарям контролювати та перевіряти рішення ШІ, а також вносити свої корективи.
  3. Розробка чітких стандартів і правил: Необхідно розробити чіткі стандарти та правила, що регулюють використання ШІ в охороні здоров’я. Ці правила повинні визначати вимоги до безпеки, ефективності, прозорості та відповідальності.
  4. Підвищення рівня обізнаності та довіри: Необхідно підвищити рівень обізнаності та довіри до ШІ серед лікарів, пацієнтів та широкої громадськості. Важливо пояснювати принципи роботи ШІ, його переваги і ризики, а також демонструвати його ефективність в реальних умовах.
  5. Впровадження систем моніторингу та оцінки: Необхідно впроваджувати системи моніторингу та оцінки ефективності ШІ в охороні здоров’я. Ці системи повинні дозволяти відстежувати продуктивність ШІ, виявляти помилки та оцінювати його вплив на якість медичної допомоги.

Особистий досвід та спостереження:

Я працюю в області аналізу даних в медичній сфері вже більше десяти років. За цей час я бачив, як штучний інтелект трансформує різні аспекти охорони здоров’я – від діагностики захворювань до розробки нових ліків. Однак, я також бачив, як надмірний оптимізм і нереалістичні очікування приводили до розчарувань і помилок.

Одним з найважливіших уроків, який я виніс за цей час, є необхідність критичного підходу до будь – яких технологій, особливо тих, які безпосередньо впливають на здоров’я та добробут людей. Не можна сліпо довіряти алгоритмам і автоматизованим системам. Необхідно завжди перевіряти і оцінювати їх рішення, грунтуючись на здоровому глузді і клінічному досвіді.

Що далі?

Історія з Elsa-це тривожний дзвінок для всієї медичної спільноти. Вона показує, що впровадження ШІ в охорону здоров’я – це складний і багатогранний процес, який вимагає ретельного планування, оцінки та регулювання.

Не можна допустити, щоб гонитва за інноваціями і ефективність затьмарила собою безпеку і благополуччя пацієнтів. Необхідно дотримуватися принципу “перш за все-безпека”, і не дозволяти собі ризикувати здоров’ям людей заради досягнення короткострокових цілей.

На закінчення, я хотів би зазначити, що штучний інтелект має величезний потенціал для поліпшення охорони здоров’я. Однак, щоб цей потенціал був реалізований, необхідно дотримуватися зваженого і відповідального підходу до впровадження та регулювання подібних технологій. Історія з FDA та чат-ботом Elsa-це нагадування про те, що шлях до інтелектуальної охорони здоров’я вимагає не тільки передових технологій, але й мудрості, обережності та постійного прагнення до досконалості.

Джерело: ipguard.org.ua