Спрашиваешь совет о здоровье у чат-бота? После недавнего запуска сервиса ChatGPT Health от OpenAI стоит учесть несколько важных факторов

Владислав Вислоцкий Эксклюзив
VK X OK WhatsApp Telegram
Материал подготовлен редакцией K-News. Все права на копирование и частичное использование материала защищены, необходимо разрешение редакции K-News.

С запуском ChatGPT Health от OpenAI возникает ряд важных аспектов, которые следует учитывать, прежде чем обращаться к ИИ-чатботам за медицинскими рекомендациями.

С учетом того, что миллионы пользователей уже ищут совета у чат-ботов, было лишь вопросом времени, когда технологические компании начнут разрабатывать специализированные решения для ответов на вопросы здоровья.

В январе OpenAI представила обновленную версию своего чат-бота — ChatGPT Health, который, по заявлениям компании, способен анализировать медицинские записи и данные с носимых устройств для предоставления ответов по медицинским вопросам.

В настоящее время доступ к программе осуществляется по предварительной записи. Конкурирующая компания Anthropic также предлагает аналогичные функции для пользователей своего чат-бота Claude.

Обе компании акцентируют внимание на том, что их разработки — это большие языковые модели, которые не могут заменить квалифицированную медицинскую помощь и не должны использоваться для постановки диагнозов. Вместо этого, чат-боты способны обобщать сложные результаты анализов, помогать подготовиться к приему у врача и выявлять важные изменения в состоянии здоровья на основе медицинских записей.

Тем не менее, насколько безопасно и точно эти технологии способны анализировать данные о здоровье? Действительно ли стоит на них полагаться?

Вот несколько моментов, которые стоит учесть перед тем, как обсуждать свое здоровье с ИИ:

Индивидуализированная информация от чат-ботов может превзойти Google

Некоторые специалисты, работавшие с ChatGPT Health и подобными платформами, считают их значительным шагом вперед в области медицинской информации.

Несмотря на то что ИИ-системы не идеальны и иногда могут предоставлять неверные советы (источник на английском языке), они часто предлагают более персонализированные и специфичные ответы, чем результаты поиска в Google.

«Часто у пациента нет никакой альтернативы, или он действует наугад, — отмечает доктор Роберт Вахтер, специалист по медицинским технологиям из Калифорнийского университета в Сан-Франциско. — Поэтому, если подходить к использованию этих инструментов ответственно, можно извлечь из них реальную пользу».

В странах, таких как Великобритания и США, где ожидание приема у врача может длиться неделями, а в неотложных отделениях пациенты могут ждать часами, чат-боты помогают избежать лишней паники и сэкономить время.

Кроме того, они могут указать на необходимость немедленного обращения к врачу, если симптомы представляют опасность.

Одним из достоинств новых чат-ботов является их способность учитывать медицинскую историю пользователей, включая текущие лекарства, возраст и врачебные записи.

Даже если вы не делитесь своими медицинскими данными, Вахтер и другие эксперты советуют предоставлять как можно больше деталей, чтобы ответы были более точными.

Не обращайтесь к ИИ при тревожных симптомах

Вахтер и его коллеги подчеркивают, что в некоторых случаях необходимо сразу обратиться за медицинской помощью, а не полагаться на чат-бота. Симптомы, такие как одышка, боль в груди или сильная головная боль, могут указывать на серьезные проблемы со здоровьем.

Даже в менее критичных ситуациях и пациенты, и врачи должны относиться к ИИ-программам с осторожностью, отмечает доктор Ллойд Майнор из Стэнфордского университета.

«Когда речь идет о серьезных медицинских решениях или даже о менее значительных вопросах здоровья, нельзя полагаться исключительно на информацию, предоставляемую большими языковыми моделями», — добавляет Майнор, декан медицинской школы Стэнфорда.

Даже в случае распространенных состояний, таких как синдром поликистозных яичников, лучше обратиться к настоящему врачу — так как заболевание может проявляться по-разному у разных людей, что влияет на выбор лечения.

Учитывайте конфиденциальность при загрузке данных о здоровье

Многие преимущества, предлагаемые ИИ-ботами, основываются на том, что пользователи делятся личной медицинской информацией. Важно помнить, что все данные, передаваемые компании, разрабатывающей ИИ, не защищены федеральным законом о конфиденциальности в США, который регулирует обращение с чувствительными медицинскими данными.

Закон, известный как HIPAA, накладывает штрафы и уголовные наказания для врачей, больниц и других медицинских учреждений за разглашение медицинской информации. Однако он не распространяется на компании, создающие чат-боты.

«Когда человек передает свою медицинскую карту модели, это совершенно не то же самое, что передать ее врачу, — объясняет Майнор. — Потребители должны понимать, что стандарты конфиденциальности в этих случаях совершенно разные».

В OpenAI и Anthropic утверждают, что данные о здоровье пользователей хранятся отдельно и защищены дополнительными мерами. Компании не используют медицинскую информацию для обучения своих моделей. Пользователи должны отдельно согласиться на передачу таких данных и могут в любой момент отказаться от этого.

Хотя интерес к ИИ велик, независимые исследования таких технологий все еще находятся на начальной стадии. Первые результаты показывают, что программы, подобные ChatGPT, успешно справляются со сложными медицинскими экзаменами, но часто ошибаются в общении с живыми людьми.

Недавно проведенное исследование Оксфордского университета с участием 1300 человек показало, что те, кто использовал ИИ-чат-ботов для поиска информации о гипотетических заболеваниях, не принимали более обоснованных решений, чем те, кто полагался на традиционный онлайн-поиск или собственные суждения.

Когда чат-ботам предлагали медицинские сценарии в письменной форме, они правильно определяли основное заболевание в 95% случаев.

«Это не было проблемой, — комментирует ведущий автор исследования Адам Махди из Оксфордского университета. — Проблемы возникали на этапе взаимодействия с реальными людьми».

Махди и его команда выявили несколько трудностей в коммуникации. Люди часто не предоставляли чат-ботам достаточной информации для точной оценки проблемы, а сами системы нередко давали смесь правильных и неправильных ответов, что затрудняло пользователям их различение.

Исследование, проведенное в 2024 году, не охватывало последние версии чат-ботов, включая ChatGPT Health.

Второе мнение от ИИ может оказаться полезным

Способность чат-ботов задавать уточняющие вопросы и извлекать ключевую информацию у пользователей — это область, где, по мнению Вахтера, еще есть много возможностей для улучшения.

«Я считаю, что они станут действительно эффективными, когда их общение с пациентами будет более «врачебным», а диалог будет напоминать настоящий разговор», — считает Вахтер.

Тем временем, один из способов повысить уверенность в полученной информации — проконсультироваться с несколькими чат-ботами, как пациенты иногда получают второе мнение от другого врача.

«Иногда я ввожу одни и те же данные в ChatGPT и Gemini, — делится Вахтер, имея в виду ИИ-инструмент Google. — И когда их ответы совпадают, я чувствую себя более уверенно, что это правильный ответ».

Запись Спрашиваешь совет о здоровье у чат-бота? Обратите внимание на несколько важных факторов после запуска ChatGPT Health от OpenAI была опубликована на K-News.
VK X OK WhatsApp Telegram

Читайте также: