Над 230 млн. души всяка седмица търсят медицински съвети от изкуствен интелект, проверяват симптоми, питат за алергии или домашни средства срещу настинка. 

Ново изследване, публикувано в престижното научно списание Nature, поставя сериозен въпрос, можем ли да се доверим на ИИ, когато здравето ни е наистина застрашено?

Какво установи изследването?

Екип от учени от болница Маунт Синай в Ню Йорк тества ChatGPT Health, специализирания здравен инструмент на OpenAI, пуснат през януари 2026 г.,  с 60 клинични сценария в 21 медицински специалности. Случаите варират от леки оплаквания, подходящи за домашно лечение, до истински животозастрашаващи ситуации. Нивото на спешност за всеки случай е определено от трима независими лекари, опирайки се на насоките на 56 медицински дружества.

Снимка: OpenAI

Резултатът е обезпокоителен, инструментът подценява над половината от случаите, изискващи спешна медицинска помощ.

„Исках да отговоря на един много основен, но критичен въпрос, ако някой изпитва реална медицинска спешност и се обърне към ChatGPT Health, ще му каже ли ясно да отиде в спешното отделение?" – казва Ашуин Рамасвами, водещ автор на изследването.

Кога ИИ се справя и кога се проваля?

Според проучването, ChatGPT Health се справя добре с "учебниковите" спешни случаи, като инсулт или тежки алергични реакции. Проблемът възниква там, където опасността не е очевидна на пръв поглед.

В един от тестовите сценарии, свързан с астма, системата е идентифицира ранни признаци на дихателна недостатъчност в своето обяснение, но въпреки това е препоръчва изчакване, вместо незабавно търсене на медицинска помощ.

Снимка: Canva

Тревожни резултати при риск от самонараняване

Изследването разглежда и как ChatGPT Health реагира на споменаване на самонараняване или суицидни мисли, тема, при която точността на дигиталните здравни инструменти е особено критична.

Въпреки че системата е програмирана да показва банер „Помощта е налична" с линк към кризисна линия, той се е появявава непоследователно. Още по-тревожното е, че инструментът е реагирал по-надеждно към потребители, които не са посочили конкретен метод за самонараняване, отколкото към тези, които са го направили.

„Моделът не беше просто непоследователен, а парадоксално обратен спрямо клиничната тежест" – констатират авторите.

Безопасно ли е да използваме ИИ за здравни въпроси?

Въпреки тревожните находки, изследователите не призовават да се изоставят напълно ИИ здравните инструменти. Те подчертават, че тези технологии трябва да се интегрират внимателно в грижата за здравето, а  не да я заместват.

Снимка: Canva

„Като медицински студент, обучаващ се в момент, когато ИИ инструментите вече са в ръцете на милиони, ги виждам като технологии, които трябва да се научим да интегрираме обмислено в грижата, а не като заместители на клиничната преценка" – споделя Алвира Тяги, съавтор на изследването.

Кога да потърсите лекар, а не чатбот

Авторите са категорични: при следните симптоми не разчитайте единствено на виртуални асистенти в медицината:

  • Болки в гърдите или задух
  • Тежки алергични реакции
  • Промени в психичното състояние или съзнанието
  • Влошаващи се или притеснителни симптоми от всякакъв вид

Медицинските съвети от изкуствен интелект могат да бъдат полезен ориентир при леки оплаквания, но според изследването в Nature, не са надежден заместител на лекарската преценка при спешни ситуации. Точността на медицинските чатботове се подобрява, но все още не е на нивото, нужно за живота застрашаващи решения. Използвайте ги като отправна точка, не като окончателен отговор и при съмнение, винаги се обърнете към специалист.

Съдържанието е информативно и не представлява консултация, препоръка или съвет. При въпроси относно вашето здраве, медицинско състояние или лечение, задължително се консултирайте с медицински специалист.

----------------------------------------------

Източници

  1. Willsher, K. (2026, 6 март). Трябва ли да използвате ChatGPT за отговори на вашите медицински въпроси? Ново проучване призовава за предпазливост. Euronews Health. 
  2. Ramaswamy, A., Tyagi, A. et al. (2026). Оценка на ChatGPT Health при разпознаване на спешни медицински случаи и суицидни рискове: структурирано клинично проучване. Nature Medicine.