AI-клиницист от DeepMind проходит тесты на мультимодальную диагностику и безопасность в клинических симуляциях

CryptoFrontier

Google DeepMind представила AI со-клинициста 1 мая 2026 года — исследовательскую инициативу, призванную изучить, как мультимодальные AI-системы могут более эффективно поддерживать работников здравоохранения и пациентов. Проект отвечает на растущее давление на системы здравоохранения по всему миру, чтобы улучшать результаты, снижать затраты и расширять доступ к медицинской помощи на фоне прогнозируемой нехватки более 10 млн медицинских работников к 2030 году, говорится в сообщении Всемирной организации здравоохранения.

Триадная модель ухода и мультимодальные возможности

Новая система предназначена для изучения модели «триадного ухода», при которой AI-агент работает вместе с врачом и пациентом, а не заменяет клиническое суждение. DeepMind заявила, что цель — создавать инструменты, которые расширят охват врачей, сохраняя контроль врачей над решениями. Компания позиционировала эту работу как следующий шаг в своих исследованиях медицинского AI после более ранних систем, таких как MedPaLM, ориентированной на проверку медицинских знаний, и AMIE, которая проводила текстовые симуляции консультаций.

Ключевая особенность AI со-клинициста — способность обрабатывать не только текст. Система тестировалась на живом аудио и видео, что позволяло ей наблюдать физические сигналы, такие как походка, паттерны дыхания и видимые изменения кожи. В телемедицинских симуляциях модель смогла проводить пациентов через части физикального осмотра и помогать с задачами вроде проверки техники использования ингалятора или содействия в выявлении травмы плеча. Эти возможности указывают, что мультимодальный AI в будущем может поддерживать удалённые консультации, где важны визуальные и аудионаблюдения.

Дизайн безопасности с двойным агентом и клинические бенчмарки

DeepMind подчеркнула наличие встроенных в систему механизмов безопасности. AI со-клиницист использует дизайн с двойным агентом, при котором «Планировщик» постоянно пересматривает взаимодействие и проверяет, что «Спикер» остаётся в клинических рамках. Компания заявила, что эта структура призвана снижать риск небезопасных ответов и повышать надёжность в медицинских сценариях, где важны фактическая точность и сдержанность.

Исследовательская группа оценила систему несколькими способами. В одном тесте они адаптировали рамочную модель безопасности NOHARM, чтобы измерять как неверные ответы, так и случаи, когда не удаётся раскрыть важную информацию. В слепых сравнениях с участием 98 запросов первичного звена система зафиксировала ноль критических ошибок в 97 случаях и оказалась предпочтительнее других инструментов синтеза доказательств по мнению врачей. DeepMind заявила, что это говорит о том, что модель может быть полезной для клиницистов, которым нужна основанная на фактах, качественная клиническая информация.

В исследовании также проверили, насколько хорошо система справлялась с вопросами, связанными с лекарствами, используя бенчмарк OpenFDA RxQA — он разработан для тестирования знаний и рассуждений о препаратах и лечении. В оценках без заранее заданных форматов AI со-клиницист показал результат лучше, чем другие передовые модели, указывая на прогресс в области, особенно важной для планирования повседневного ухода.

Сравнение эффективности с врачами

Однако в ориентированных на пациентов симуляциях врачи-люди в целом справлялись лучше. Работая с академическими врачами из Harvard и Stanford, исследовательская команда провела рандомизированное исследование с 20 синтетическими клиническими сценариями и 10 врачами-актёрами (пациентами). По более чем 140 оцениваемым направлениям врачи превосходили AI в выявлении тревожных признаков и ведении физикальных осмотров, даже несмотря на то, что система совпадала или превосходила эффективность врачей в 68 категориях, включая триаж. Результаты указывают, что инструмент может быть наиболее ценным как система поддержки, а не замена клинической экспертизы.

Продолжающиеся исследовательские партнёрства

DeepMind заявила, что более широкая цель — разработать AI, который сможет помогать врачам так, чтобы ему можно было доверять, чтобы он был клинически обоснованным и адаптируемым к реальным условиям ухода. Компания продолжает исследовательские сотрудничества в нескольких странах, включая Соединённые Штаты, Индию, Австралию, Новую Зеландию, Сингапур и Объединённые Арабские Эмираты, по мере того как она работает над тестированием системы в более разнообразных условиях здравоохранения.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев