
Художник з Німеччини, який любив малювати на свіжому повітрі, з'явився до лікарні з укусом комахи та низкою симптомів, які лікарі не могли точно пояснити. Після місяця та кількох невдалих процедур пацієнт почав вносити свою історію хвороби в ChatGPT, де був поставлений діагноз: туляремія, також відома як кроляча лихоманка. Чат-бот виявився правильним, і цей випадок пізніше був описаний у рецензованому медичному дослідженні.
Приблизно в той самий час в іншому дослідженні описується чоловік, який звернувся до лікарні в Сполучених Штатах з ознаками психозу, параноїдальним побоюванням, що сусід його отруїв. Виявилося, що пацієнт попросив ChatGPT про альтернативи хлориду натрію, або кухонній солі. Чат-бот запропонував бромід натрію, який використовується для очищення басейнів. Він вживав цю токсичну речовину протягом трьох місяців, і після того, як припинив, йому знадобилося три тижні в психіатричному відділенні, щоб стабілізувати свій стан.
Зручний для користувача
Щотижнева розсилка, щоб переконатися, що технології працюють на вас, а не перевантажують вас. Від старшого кореспондента з питань технологій Адама Кларка Естеса.
Електронна пошта (обов’язково) Зареєструватися Надсилаючи свою електронну адресу, ви погоджуєтеся з нашими Умовами та Повідомленням про конфіденційність. Цей сайт захищено reCAPTCHA, і до нього застосовуються Політика конфіденційності та Умови надання послуг Google.
Ви, мабуть, знайомі з консультацією в Google щодо загадкової хвороби. Ви шукаєте в інтернеті свої симптоми, іноді знаходите корисні поради, а іноді потрапляєте у вир тривоги та страху, переконані, що у вас рідкісна, недіагностована форма раку. Тепер, завдяки диву генеративного штучного інтелекту, ви можете виконати цей процес більш детально. Знайомтесь, доктор ChatGPT.
Чат-боти на базі штучного інтелекту є привабливою заміною для лікаря-людини, особливо враховуючи постійну нестачу лікарів, а також ширші бар'єри для доступу до медичної допомоги у Сполучених Штатах.
ChatGPT не є лікарем, так само як Google не є лікарем. Пошук медичної інформації на будь-якій платформі з такою ж ймовірністю призведе до неправильного висновку, як і до правильного діагнозу. Однак, на відміну від пошуку Google, який просто вказує користувачам на інформацію, ChatGPT та інші моделі великих мов (LLM) запрошують людей до розмови про неї. Вони розроблені так, щоб бути доступними, захопливими та завжди доступними. Це робить чат-боти зі штучним інтелектом привабливою альтернативою лікарю-людині, особливо враховуючи постійну нестачу лікарів, а також ширші бар'єри для доступу до медичної допомоги у Сполучених Штатах.
Як показує анекдот про кролячу лихоманку, ці інструменти також можуть обробляти всілякі дані та, пройшовши навчання на величезній кількості медичних журналів, іноді робити висновки експертного рівня, які лікарі пропустили. Або ж вони можуть давати вам справді жахливі медичні поради.
Існує різниця між зверненням до чат-бота за медичною порадою та розмовою з ним про ваше здоров'я загалом. Правильне спілкування з ChatGPT може призвести до кращих розмов з вашим лікарем та кращого догляду. Тільки не дозволяйте штучному інтелекту вмовити вас з'їсти засіб для чищення басейну.
Правильні та неправильні способи спілкування з доктором ChatGPT
Багато людей розмовляють з ChatGPT про своє здоров'я. Згідно з опитуванням KFF 2024 року, приблизно кожен шостий дорослий у Сполучених Штатах каже, що щомісяця використовує чат-ботів зі штучним інтелектом для отримання медичних порад. Більшість із них не впевнені в точності інформації, яку надають боти, — і, чесно кажучи, такий рівень скептицизму є доречним, враховуючи вперту схильність LLM до галюцинацій та потенціал того, що погана інформація про здоров'я може завдати шкоди. Справжня проблема для пересічного користувача полягає в тому, щоб знати, як розрізняти факти та вигадки.
«Чесно кажучи, я вважаю, що людям потрібно бути дуже обережними з використанням цього в будь-яких медичних цілях, особливо якщо вони не мають досвіду в розпізнаванні того, що правда, а що ні», — сказала доктор Роксана Данешжоу, професорка та дослідниця штучного інтелекту в Медичній школі Стенфорда. «Коли це правильно, це досить добре працює, але коли це неправильно, це може бути досить катастрофічно».
Чат-боти також мають схильність бути підлабузливими або прагнути догодити, а це означає, що вони можуть спрямувати вас у неправильному напрямку, якщо вважатимуть, що саме цього ви хочете.
Данешжоу додала, що ситуація настільки небезпечна, що вона закликає пацієнтів звертатися до Dr. Google, який надає перевірені джерела. Пошуковий гігант вже десять років співпрацює з експертами клініки Майо та Гарвардської медичної школи, щоб представити перевірену інформацію про стани та симптоми після поширення так званої «кіберхондрії», або тривоги щодо здоров'я, що виникає завдяки інтернету.
Пов'язані
- ChatGPT більше не призначений лише для шахрайства
Насправді, цей стан набагато старший за Google. Люди шукають відповіді на свої питання щодо здоров'я ще з часів Usenet у 1980-х роках, і до середини 2000-х років вісім з десяти людей використовували Інтернет для пошуку медичної інформації. Тепер, незалежно від їхньої надійності, чат-боти готові отримувати дедалі більше таких запитів. Google навіть ставить свої проблемні результати, згенеровані штучним інтелектом, для медичних питань вище за перевірені результати своєї перевірки симптомів.
Якщо у вас є список питань, про які ви хочете запитати свого лікаря, ChatGPT може допомогти вам сформулювати запитання.
Але якщо ви пропустите перевірку симптомів, такі інструменти, як ChatGPT, можуть бути дуже корисними, якщо ви просто хочете дізнатися більше про те, що відбувається з вашим здоров’ям, на основі того, що вам уже сказав ваш лікар, або краще зрозуміти його жаргон. Чат-боти розроблені для спілкування, і вони добре в цьому справляються. Якщо у вас є список речей, про які ви хочете запитати свого лікаря, ChatGPT може допомогти вам сформулювати запитання. Якщо ви отримали результати деяких аналізів і вам потрібно прийняти рішення з лікарем щодо найкращих наступних кроків, ви можете відрепетирувати це з чат-ботом, фактично не питаючи поради у штучного інтелекту.
Насправді, коли справа доходить до простої розмови, є деякі докази того, що ChatGPT справляється з цим краще. В одному дослідженні, проведеному у 2023 році, порівнювали реальні відповіді лікарів на запитання щодо здоров'я з форуму Reddit з відповідями, згенерованими штучним інтелектом, коли чат-боту задавали ті самі запитання. Потім медичні працівники оцінили всі відповіді та виявили, що відповіді, згенеровані чат-ботом, були як вищої якості, так і більш емпатичними. Це не те саме, що лікар знаходиться в одній кімнаті з пацієнтом і обговорює його здоров'я. Зараз саме час зазначити, що в середньому пацієнти отримують лише 18 хвилин зі своїм сімейним лікарем під час будь-якого візиту. Якщо ви відвідуєте лікаря лише раз на рік, це не так багато часу для розмови з лікарем.
Вам слід знати, що, на відміну від вашого лікаря-людини, ChatGPT не відповідає вимогам HIPAA. Чат-боти зазвичай мають дуже мало захисту конфіденційності. Це означає, що ви повинні очікувати, що будь-яка медична інформація, яку ви завантажуєте, буде збережена в пам'яті штучного інтелекту та використовуватиметься для навчання великих мовних моделей у майбутньому. Також теоретично можливо, що ваші дані можуть бути включені до виводу для чиєїсь підказки. Існують більш приватні способи використання чат-ботів, але все ж існує проблема галюцинацій та потенціал для катастрофи.
Майбутнє медичного обслуговування за допомогою ботів
Навіть якщо ви не використовуєте штучний інтелект для розгадування медичних загадок, є ймовірність, що ваш лікар ним користується. Згідно зі звітом Elsevier за 2025 рік, близько половини клініцистів сказали, що використовували інструмент штучного інтелекту для роботи, трохи більше сказали, що ці інструменти економлять їм час, а кожен п'ятий каже, що використовував штучний інтелект для отримання другої думки у складному випадку. Це не обов'язково означає, що ваш лікар просить ChatGPT з'ясувати, що означають ваші симптоми.
Лікарі використовують інструменти на базі штучного інтелекту для допомоги в усіх питаннях, від діагностики пацієнтів до ведення нотаток, ще задовго до появи ChatGPT. До них належать системи підтримки клінічних рішень, створені спеціально для лікарів, які наразі перевершують стандартні чат-боти, хоча чат-боти можуть фактично доповнити існуючі інструменти. Дослідження 2023 року показало, що лікарі, які працюють з ChatGPT, лише трохи краще справляються з діагностикою тестових випадків, ніж ті, хто працює самостійно. Цікаво, що ChatGPT сам по собі показав найкращі результати.
Пов'язані
- Американці відмовляються від традиційної медичної допомоги заради чогось дешевшого — і ризикованішого
Це дослідження потрапило в заголовки газет, ймовірно, через припущення, що чат-боти на основі штучного інтелекту краще справляються з діагнозом, ніж лікарі. Один із його співавторів, доктор Адам Родман, припускає, що це не обов'язково було б так, якби лікарі були більш відкриті до того, щоб слухати ChatGPT, а не вважати, що чат-боти помиляються, коли лікар не погоджується з їхніми висновками. Звичайно, штучний інтелект може галюцинувати, але він також може виявляти зв'язки, які люди могли пропустити. Знову ж таки, розглянемо випадок із кролячою лихоманкою.
«Пацієнтам потрібно поговорити зі своїми лікарями про використання ними LLM, і, чесно кажучи, лікарі повинні поговорити зі своїми пацієнтами про використання ними LLM».
«Пересічний лікар відчуває, коли щось галюцинує або йде з рейок», — сказав Родман, лікар медичного центру Beth Israel Deaconess та викладач Гарвардської медичної школи. «Я не впевнений, що пересічний пацієнт обов’язково це відчуває».
Тим не менш, найближчим часом не варто очікувати появи доктора ChatGPT у вашій місцевій клініці. Ви, швидше за все, побачите ШІ як писаря, заощаджуючи час вашого лікаря на нотатках і, можливо, одного разу на аналізі цих даних, щоб допомогти йому. Ваш лікар може використовувати ШІ для швидшого складання повідомлень пацієнтам. У найближчому майбутньому, оскільки інструменти ШІ вдосконалюватимуться, можливо, більше клініцистів використовуватимуть ШІ для діагностики та отримання другої думки. Це все ще не означає, що вам слід поспішати до ChatGPT зі своїми терміновими медичними проблемами. Якщо так, розкажіть своєму лікарю про те, як все пройшло.
«Пацієнтам потрібно поговорити зі своїми лікарями про використання ними LLM, і, чесно кажучи, лікарі повинні поговорити зі своїми пацієнтами про використання ними LLM», – сказав Родман. «Якщо ми просто вийдемо з тіньового світу та поговоримо одне з одним, у нас будуть більш продуктивні розмови».
Версія цієї історії також була опублікована в розсилці User Friendly. Підпишіться тут, щоб не пропустити наступну!
Source: vox.com




