Поддержать команду Зеркала
Беларусы на войне
  1. Роман Протасевич, который не мог найти работу, все же нашел источник заработка
  2. Оздоровил за границей сотни тысяч детей, но сам умер от лейкемии. История человека, который спасал беларусов от последствий Чернобыля
  3. Беларус попытался обменять в банке настоящие купюры, которые привез из-за границы отец, но везде отказали. Почему?
  4. Беларусы оценили попытку властей заставить их прекратить обсуждение приезда пакистанцев. Получилось грустно и метко
  5. Власти готовят список самых выдающихся беларусов в истории. В него попал очень спорный человек — за его решения стыдно до сих пор
  6. План Трампа: Разрешение РФ сберечь захваченные украинские территории является «окончательным» — The Times
  7. «Надо рожать: трое, четверо, а лучше — пятеро». Лукашенко рассказал, что надо делать, чтобы в Беларусь не приглашали трудовых мигрантов
  8. «Дорожными знаками обозначаться не будут». В ГАИ появились новые системы фиксации — нарушители получат «письма счастья»
  9. «Наша Ніва»: В 41 год умер сотрудник минского ОМОН
  10. «Получаем обрывки информации». Сестра Марии Колесниковой рассказала последние новости от нее
  11. Москва для прекращения огня и заключения мирного соглашения выдвигает условия, которые позволят ей вновь вторгнуться в Украину, — эксперты
  12. Заморозки и мокрый снег: синоптики рассказали о погоде в Беларуси в ближайшие три дня
  13. Reuters опубликовало «окончательное предложение» США Украине и РФ. Киев и ЕС представили альтернативный план
  14. Торговые сети бьют тревогу из-за нехватки популярного продукта, а чиновники ожидают возможного дефицита
  15. В базу «тунеядцев» включают тех, кого там не должно быть. Есть категории населения, у которых повышенные шансы на такое внимание
  16. «Владимир, остановитесь!» Трамп обратился к Путину после ударов по Киеву
  17. Что происходит с заводом, который бросили американцы, а Кочанова говорила им вслед — «пусть уходят — справимся»


Популярный чат-бот ChatGPT вряд ли можно назвать панацеей для получения ответов на медицинские вопросы. Более того, по мнению ученых, опасно излишне полагаться на его ресурсы в надежде получить точную информацию о своем здоровье и планах приема лекарств. Об этом говорится в новом исследовании специалистов из Университета Лонг-Айленда, пишет CNN.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com

ChatGPT, экспериментальный чат-бот с искусственным интеллектом компании OpenAI, был выпущен в ноябре 2022 года и стал самым быстрорастущим приложением в истории: за два месяца в нем зарегистрировалось около 100 миллионов человек.

По словам доцента кафедры фармацевтической практики Университета Лонг-Айленда и одного из авторов исследования Сары Гроссман, учитывая такую популярность программы, у исследователей возникли опасения, что их студенты, другие фармацевты и обычные потребители будут обращаться к ресурсам вроде ChatGPT, чтобы получить информацию о своем здоровье и планах приема лекарств.

Но, как выяснилось, в этом случае пользователи рискуют получить неточные и даже опасные ответы.

В ходе исследования ученые задали бесплатной версии ChatGPT 39 реальных вопросов на медицинскую тематику, которые поступили в справочную службу фармацевтического колледжа университета. Затем они сравнили ответы программы с рекомендациями, написанными и проверенными квалифицированными фармацевтами.

Оказалось, что чат-бот дал точные ответы только на 10 вопросов, то есть около четверти, а в остальных случаях информация была неполной, неточной или не соответствовала запросам.

Например, один из вопросов звучал так: как будут взаимодействовать в организме противовирусный препарат "Пакловид-19" и средство для снижения артериального давления верапамил? ChatGPT ответил, что совместный прием этих двух лекарств не вызовет никаких побочных эффектов.

Но в действительности у людей, принимающих оба препарата, может сильно упасть артериальное давление, что может вызвать головокружение и обморок. Для таких пациентов врачи часто разрабатывают индивидуальные планы — например, снижают дозу верапамила или предупреждают, чтобы человек медленно вставал из положения сидя.

В случае приема баклофена, который используется для спинальных инъекций при мышечных спазмах, программа рассчитала дозу в 1000 раз меньше, чем требуется. Если бы медработник назначил пациенту препарат по этой дозировке, это могло бы вызвать галлюцинации и судороги.

Более того, когда исследователи попросили чат-бота указать научные ссылки, подтверждающие его ответы, выяснилось, что программа может предоставить их только для восьми заданных вопросов. И в каждом случае ссылки оказались вымышленными, хотя, на первый взгляд, выглядели вполне «солидно» и даже вели на авторитетные научные журналы.

Ученые предостерегли пользователей от получения медицинских советов через ChatGPT — впрочем, как и через поисковые системы вроде Google. По их мнению, ни то ни другое не может заменить консультацию профессионального медработника.

— Веб-сайты — это, возможно, одна из отправных точек, но они могут вытеснить из поля зрения врача, когда пациент ищет информацию о лекарствах, которые назначены непосредственно ему, — сказала Сара Гроссман.

Она подчеркнула, что каждый случай индивидуален и поэтому не следует пренебрегать консультацией профессионалов — врача и медработника, назначающего препарат.