ВОЗ перечислила риски использования ChatGPT при постановке диагнозов
Организация призвала с осторожностью использовать искусственный интеллект в медицине, отметив, что чат-боты могут предоставлять неверную информацию о здоровье и делиться чувствительными данными о болезнях пользователей
Использовать искусственный интеллект (ChatGPT, Bard, Bert и подобные платформы) в медицинских целях необходимо с осторожностью, предупредили во Всемирной организации здравоохранения (ВОЗ). Там отметили, что чат-боты все чаще применяют в здравоохранении при постановке диагнозов, особенно «в условиях ограниченных ресурсов», но перед этим необходимо тщательно исследовать риски.
В числе опасений в организации назвали:
«ВОЗ одобрительно относится к надлежащему использованию технологий, включая LLM (большие языковые модели. — РБК), в помощь специалистам в области здравоохранения, пациентам, исследователям и ученым, если опасения, что осторожность, с которой обычно относятся к любой новой технологии, не возникает в случае с LLM», — объяснили свою позицию в организации. Там подчеркнули важность «прозрачности, инклюзивности, участия общественности, контроля экспертов и тщательной оценки» прежде, чем искусственный интеллект начнут активно использовать в здравоохранении.
В феврале американские исследователи — авторы опубликованного в журнале PLOS Digital Health исследования сообщили, что ChatGPT сдал медицинский экзамен USMLE, который дает право работать врачом в США. Чат-бот ответил на 88,9% вопросов теста и преодолел проходной порог в 60%.