Према најновијој студији, модели вjештачке интелигенције који се све чешће користе за пружање здравствених савјета имају значајан проблем – подложни су дезинформацијама ако су оне упаковане у формат који имитира научни ауторитет.
Истраживање је показало да АИ четтботови и велики језички модели (LLM) често не успијевају да разликују провјерене медицинске чињенице од лажних тврдњи ако се те тврдње налазе на сајтовима који користе медицинску терминологију, референце које дјелују убједљиво или визуелни идентитет који подсјећа на релевантне здравствене институције.
Главни проблеми идентификовани у студији су:
- АИ модели дају већи значај структури текста и ауторитативном тону него стварној провјери података кроз базе клиничких доказа.
- Пошто се све већи број људи ослања на АИ за самолијечење и разумијевање симптома, способност технологије да “повјерује” у дезинформације представља озбиљан ризик по јавно здравље.
- Студија упозорава да креатори лажних вести користе управо ове слабости АИ система како би прогурали опасне медицинске савјете у саме одговоре које генеришу популарни АИ асистенти.
- Стручњаци који су радили на истраживању истичу да тренутни заштитни механизми нису довољни. Иако компаније као што су OpenAI, Google и Meta стално унапређују своје моделе, студија сугерише да је неопходан радикално другачији приступ у начину на који АИ вреднује изворе информација.
Учи из неистина
– Проблем није само у томе што АИ може да погреши, већ у томе што он активно учи из софистицирано пласираних неистина које имитирају науку – наводи се у извјештају.
Док се технологија не усаврши, љекари и истраживачи апелују на грађане да АИ алате користе искључиво као информативну помоћ, а да се за било какву дијагнозу или терапију обрате квалификованим медицинским стручњацима и провјереним институцијама.
































