Завантаження ...
banner
banner

Як поради штучного інтелекту можуть нашкодити здоров'ю

Як поради штучного інтелекту можуть нашкодити здоров'ю  фото

Лікарі, які перевірили поради, які їх пацієнтам давав штучний інтелект, вважають, що ця технологія поки що недопрацьована і може бути небезпечною для медицини.

Штучний інтелект дає потенційну можливість підвищити ефективність лікарів і доступність медичних послуг, але поки людство, схоже, доволі далеке від цього — про це пише The Washington Post.

Приміром, професор Крістофер Шарп зі Стенфордського медичного університету протестував можливості моделі OpenAI GPT-4o у створенні рекомендацій для пацієнтів, обираючи випадкові скарги, які до нього надходили. В одному випадку людина скаржилася на свербіж губ після вживання помідорів. ШІ припустив, що це алергічна реакція, і порадив уникати помідорів, використовувати пероральні антигістамінні препарати й стероїдний крем. Лікар сказав, що він «не згоден з усіма аспектами відповіді» від ШІ й наголосив. що губи — дуже тонка тканина і стероїдні креми треба використовувати з обережністю.

Професорка Стенфордського університету Роксана Данешджу протестувала модель у такий самий спосіб. Вона так само запропонувала ChatGPT надати рекомендації за запитом, який надійшов до неї від пацієнтки. Жінка припустила, що у неї розвинувся мастит після годування грудьми, є біль і почервоніння. ChatGPT запропонував їй гарячі компреси та масаж, хоча насправді в такій ситуації потрібно діяти навпаки: холодні компреси, утримання від масажу та уникнення надмірної стимуляції. Данешджоу розповіла журналістам, що провела масштабніший тест з залученням ChatGPT і 80 фахівців у комп’ютерній сфері та медиків. Вони так само ставили ChatGPT медичні запитання і перевіряли відповіді. Так було встановлено, що у 20% випадків ШІ дає не найбезпечніші поради.

«Двадцять відсотків проблемних відповідей, як на мене, недостатні для щоденного використання в системі охорони здоров’я», — сказала вона.

Нагадаємо, що у Ніжині за тиждень захворіли 150 дітей.

Приєднуйтесь до наших сторінок в соцмережах і слідкуйте за головними подіями: