Ученые исследовали самотренинг для улучшения диагностики заболеваний

схожие новости

Новое исследование программистов из Ливерморской национальной лаборатории Лоуренса (LLNL) и IBM Research по моделям глубокого обучения для точной диагностики заболеваний по рентгеновским изображениям с менее маркированными данными получила награду за лучшую работу в компьютерной диагностике на конференции SPIE 19 февраля.

Метод, включающий в себя новые стратегии регуляризации и «самотренинга», решает некоторые проблемы, связанные с внедрением искусственного интеллекта (ИИ) для диагностики заболеваний, а именно сложность получения большого количества данных из-за затрат, усилий или проблем с конфиденциальностью. Алгоритмы ИИ в настоящее время также не могут эффективно диагностировать состояния, данных о которых пока недостаточно.

Ученый-компьютерщик из Ливерморской национальной лаборатории Джей Тиагараджан (второй слева) и коллеги из IBM Research разработали метод «самотренинга» глубокого обучения, который решает общие проблемы внедрения искусственного интеллекта для диагностики заболеваний

Компьютерный ученый из LLNL Джей Тиагараджан сказал, что подход команды показывает, что точные модели могут быть ограниченно созданы и работать даже лучше нейтронных сетей, обученных на гораздо более крупные помеченные наборы данных.

Команда ученых применила уникальный обучающий подход к эталонным наборам данных рентгеновских снимков грудной клетки, содержащих как помеченные, так и немаркированные данные, для диагностики пяти различных состояний сердца: кардиомегалии, отека, консолидации, ателектаза и плеврального выпота. Исследователи увидели сокращение на 85% количества помеченных данных, необходимых для достижения той же производительности, что и существующие современные нейронные сети. По словам Тиагараджана, это чрезвычайно важно для клинического применения ИИ, где сбор размеченных данных может быть крайне сложной задачей.

Об исследовании сообщила пресс-служба LLNL, Ливерморской национальной лаборатории.

Читать еще

Комментарий

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь