Новость

00:00
Новости науки
Новости науки
...
Новости
13:30, 26 Мар

Deepfake-рентгеновские снимки настолько реалистичны, что даже врачи не могут отличить их от настоящих

Исследование показывает, что искусственно созданные ИИ медицинские изображения способны обмануть как опытных рентгенологов, так и современные языковые модели, создавая риски для диагностики и медицинской документации

Deepfake X-rays are so real even doctors can’t tell the difference | ScienceDaily
sciencedaily.com
sciencedaily.com

Короткое резюме

Искусственно созданные с помощью ИИ deepfake-рентгеновские снимки достигли уровня реализма, позволяющего обманывать как опытных рентгенологов, так и современные мультимодальные языковые модели. В исследовании, опубликованном в журнале Radiology, участвовали 17 радиологов из 12 учреждений шести стран, которые анализировали 264 изображения, половина из которых была сгенерирована ИИ.

Когда радиологи не знали о присутствии поддельных изображений, они распознали только 41% AI-снимков. После предупреждения точность возросла до 75%, но результаты сильно варьировались. ИИ-модели, включая GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick, показали точность от 57% до 85%. Исследование не выявило связи между опытом врача и способностью обнаруживать подделки, хотя специалисты по костно-мышечной системе справлялись лучше.

Риски включают возможность использования поддельных изображений в судебных исках, кибератаки на больничные сети для манипуляции диагнозами и подрыв доверия к цифровым медицинским записям. Для противодействия угрозам исследователи рекомендуют внедрение цифровых водяных знаков и криптографических подписей. В будущем ожидается появление синтетических 3D-изображений (КТ и МРТ), что делает разработку образовательных наборов данных и инструментов обнаружения критически важной.

Ключевые выводы
Низкая начальная точность обнаружения

Радиологи, не знавшие о присутствии deepfake-изображений, распознали только 41% поддельных рентгеновских снимков

Ограниченные возможности ИИ-моделей

Современные мультимодальные языковые модели (GPT-4o, GPT-5 и др.) показали точность обнаружения deepfake в диапазоне от 57% до 85%

Отсутствие связи с опытом

Способность обнаруживать поддельные изображения не коррелировала с количеством лет практики радиолога, хотя специалисты по костно-мышечной системе показали лучшие результаты

Характерные визуальные признаки

Deepfake-изображения часто выглядят «слишком идеальными»: кости чрезмерно гладкие, позвоночники неестественно прямые, а переломы необычно чисты и симметричны

Текст сгенерирован с использованием ИИ

Искусственный интеллект, Диагностика, Медицинская визуализация, Кибербезопасность, Deepfake, Рентгенология
1

Рекомендации по теме

Комментарии

Логотип "Голос Науки"
Главная
Поддержать проект
Разделы
Быстрый доступ
  • Интервью автора
  • Видеоаннотации
Спонсор
* не является рекламой
Презентация
Информация

    тел.: 8 (800) 350 17-24email: office@golos-nauki.ru
    Регистрация
    Новости наукиЛента новостей
    Другие новости