Художник в Германия отишъл в болница, след като бил ухапан от насекомо, и имал симптоми, които лекарите не могли да свържат. След месец неуспешно лечение, той въвел медицинската си история в ChatGPT, което предполагало диагноза: туларемия (или заешка треска). Чатботът се оказал прав и случаят по-късно бил публикуван в научно проучване, според VOX, цитирани от KOHA.
Междувременно в САЩ пациент, проявяващ признаци на психоза, последва съвета на ChatGPT за алтернативи на трапезната сол. Чатботът предложил натриев бромид - токсично вещество, използвано за почистване на басейни. След като го консумирал в продължение на три месеца, той се озовал в психиатрично отделение за три седмици.
Този контраст ясно показва, че ChatGPT може да помогне в трудни случаи, но също така да даде много опасни съвети.
Експертите подчертават, че използването на изкуствен интелект (ИИ) за здравето изисква голямо внимание. Д-р Роксан Данеш, професор и изследовател в Медицинския факултет на Станфордския университет, предупреждава хората да бъдат много внимателни.
"Трябва да бъдем много внимателни, когато го използваме за медицински цели, особено когато нямаме знанията да различим кое е точно и кое не. Когато е точно, работи много добре, но когато е грешно, последствията могат да бъдат катастрофални“, каза тя.
Друг проблем е, че чатботовете са склонни да бъдат "сервилни“, което означава, че често дават на потребителя това, което иска да чуе, дори и да е невярно. Поради тази причина Данешю предполага, че е по-добре пациентите да използват "Д-р Google“, който предлага проверена информация.
От друга страна, ChatGPT може да служи като инструмент за поддръжка. Той може да помогне на пациентите да разберат по-добре бележките на лекаря си, да подготвят въпроси за следващото си посещение или да обяснят резултатите от тестовете по по-разбираем начин. Проучване от 2023 г. установи, че чатботовете често предоставят по-добри и по-емпатични отговори от самите лекари в онлайн форуми.
Съществува обаче и проблем с поверителността, тъй като ChatGPT не е защитен от HIPAA (Законът за поверителност на здравната информация на САЩ).
Информацията, която въвеждате, може да се съхранява, използва за обучение и теоретично да се появява в отговори на някой друг.
Същевременно, лекари вече използват изкуствен интелект в работата си. Според доклад на Elsevier (2025), около половината от лекарите са използвали инструмент с изкуствен интелект, а един на всеки петима го е използвал, за да потърси второ мнение. Проучванията показват, че ChatGPT понякога постига по-точни диагнози от лекарите, въпреки че комбинацията от двете е по-силна.
"Пациентите трябва да говорят с лекарите си за използването на сложни езикови модели и, честно казано, лекарите също трябва да говорят с пациентите си за това. Ако и двете страни излязат от "тайния свят“ и говорят открито, ще имаме много по-продуктивна комуникация“, смята Адам Родман, лекар в медицинския център "Бет Израел Дийконес“ и преподавател в медицинското училище в Харвард.



20:09 / 21.09.2025
3619


