От х:

Днес в x:

Все повече хора търсят медицински съвети от AI, но чатботовете подвеждат

Изслушайте новината:

Все повече хора по света се обръщат към чатботове с изкуствен интелект за медицински съвети. Нови изследвания обаче показват, че подобни инструменти невинаги разпознават спешни случаи и могат да дадат подвеждащи препоръки, които според специалисти крият риск за човешкия живот.

Проучване, публикувано в научното списание Nature Medicine, предупреждава, че системи като ChatGPT често дават непоследователни отговори и не успяват да оценят правилно тежестта на медицинските симптоми.

Хората не се справят по-добре с помощта на AI

Изследване на Oxford Internet Institute сред над 1300 участници установява, че хората, които използват чатботове с изкуствен интелект за оценка на здравословни проблеми не се справят по-добре от тези, които просто търсят информация онлайн.

Участниците правилно разпознават хипотетични заболявания едва в около една трета от случаите. Само 43% избират и правилното действие – например дали трябва да потърсят спешна медицинска помощ или могат да останат у дома.

Една от причините хората все по-често да се консултират с изкуствен интелект е финансовата – мнозина се опитват да спестят разходите за лекарска консултация. Проблемът е, че чатботовете понякога дават и директни препоръки за прием на медикаменти, което може да бъде опасно.

Проблем в комуникацията между хората и технологията

Според изследователите основният проблем е двустранен комуникационен срив. Потребителите често не знаят каква информация и кои симптоми трябва да опишат, а системата смесва полезни и подвеждащи съвети.

„Хората не знаят какво точно трябва да кажат на модела“, казва изследователят Андрю Бийн от Оксфордския университет. Той подчертава, че лекарите са обучени да задават уточняващи въпроси – умение, което чатботовете все още не могат надеждно да възпроизведат.

Когато учените въвеждат пълни медицински сценарии директно в системата, изкуственият интелект поставя правилна диагноза в 94% от случаите. Това показва, че проблемът е основно в начина, по който реалните потребители комуникират с технологията.

Подценяване на спешни медицински случаи

Друго изследване, проведено от учени от Icahn School of Medicine at Mount Sinai в Ню Йорк, тества специализираната система ChatGPT Health.

Екипът анализира 60 клинични сценария, създадени от лекари. Резултатите показват, че системата подценява повече от половината случаи, които според специалистите изискват спешна медицинска помощ.

В един от примерите чатботът разпознава ранни признаци на дихателна недостатъчност при пациент с астма, но въпреки това съветва човекът да изчака, вместо да потърси спешна помощ.

Изследването открива и проблеми със защитните механизми при риск от самоубийство. Те се активират по-надеждно при ситуации с по-нисък риск, но не се задействат, когато потребители описват конкретни планове за самонараняване.

Предупреждение от учените

„Това, което наблюдавахме надхвърля обикновена непоследователност“, коментира д-р Гириш Надкарни, един от авторите на изследването.

Лекарят Ребека Пейн, съавтор на оксфордското проучване, предупреждава, че разчитането на чатботове за медицински съвети може да бъде опасно.

От компанията OpenAI посочват, че по-новите версии на системата допускат по-малко грешки и са значително по-склонни да задават уточняващи въпроси.

Въпреки това учените подчертават, че при симптоми като болка в гърдите, задух или мисли за самонараняване хората трябва незабавно да потърсят медицинска помощ, а не да разчитат на чатботове.

 

Източник: frognews

Видеа по темата

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини