Все повече хора използват чатботове с изкуствен интелект, за да получат информация за свои здравни проблеми. Обикновено за секунди върнатите отговори звучат гладко, професионално и са допълнени от "източници".

Безопасно ли е да се консултираме с ChatGPT за здравето си

Безопасно ли е да се консултираме с ChatGPT за здравето си

Милиони хора го правят

Само че твърденият в тях са неверни, а линковете не водят никъде. Това покзват резултати от ново изследване, публикувано в BMJ Open, което поставя под лупа пет от най-популярните ИИ чатботове в света.

Екип от учени задава 50 медицински въпроса на Chat GPT, Gemini, Grok, Meta AI и DeepSeek. Темите включват рак, ваксини, стволови клетки, хранене и спортни постижения. Двама независими експерти оценяват всеки отговор и резултатите са тревожни.

ChatGPT не се представя добре със здравните съвети

Източник: GettyImages

ChatGPT не се представя добре със здравните съвети

Около 20% от отговорите са силно проблематични, половината са проблематични, а останалите 30% - донякъде проблематични. Нито един чатбот не успява да предостави напълно коректен списък с научни източници.

Най-слабо се представя Grok, при който 58% от отговорите са проблемни. Следват ChatGPT с 52% и Meta AI с 50%.

Къде чатботовете се справят добре - и къде се провалят

Най-добри резултати се наблюдават при теми като рак и ваксини, където научната база е ясна и добре структурирана. Въпреки това дори в тези области приблизително една четвърт от отговорите съдържат проблеми.

Въпросите за хранителни добавки често получават грешни отговори

Източник: iStock

Въпросите за хранителни добавки често получават грешни отговори

Най-големи затруднения се наблюдават при хранене и спортни постижения - теми, в които онлайн пространството е пълно с противоречива информация, а научните доказателства често са ограничени.

Когато изследователите искат от чатботовете да предоставят научни източници към конкретните отговори, средната точност е едва 40%. Нито един модел не успява да състави напълно коректен списък. Срещат се объркани автори, несъществуващи статии, счупени линкове и дори напълно измислени публикации. Това е особено опасно, защото добре форматираните източници създават илюзия за достоверност, която повечето потребители не поставят под съмнение.

Какво показват други изследвания

През 2026 г. изследване в Nature Medicine установява, че чатботовете могат да дадат правилен медицински отговор в 95% от случаите. Но когато реални хора използват тези отговори, те разбират правилно под 35% от тях. Тоест проблемът не е само в точността на модела, а в това дали потребителят може да интерпретира информацията.

Най-сигурният начин да получим здравен съвет е от лекар

Източник: iStock

Най-сигурният начин да получим здравен съвет е от лекар

Друго изследване, публикувано в JAMA Network Open, тества 21 ИИ модела за медицинска диагностика. Когато моделите получават само базова информация - симптоми, възраст, пол, те грешат в над 80% от случаите. Когато се добавят лабораторни резултати и прегледи, точността скача над 90%.

Трето проучване, публикувано в Nature Communications Medicine, показва, че чатботовете лесно повтарят и дори разширяват измислени медицински термини, ако потребителят ги включи в запитването.

Какво означава това за нас, потребителите

Чатботовете с ИИ не са медицински авторитети и не трябва да се използват като такива. Препоръчително е да проверим всяко твърдени, което чатботът прави, в надежден източник. Източниците трябва също да бъдат проверени. Когато отговърът звучи прекалено категоричен, винаги го поставяме под съмнение и търсим допълнителна информация. И не заменяме посещението при лекар с "консултация" с чатбот, пишат The Conversation.