Искусственный интеллект в медицинской практике: как он справляется с задачами врачей
Исследование моделей OpenAI в контексте экстренной медицины
На этой неделе в журнале Science было опубликовано исследование, проведенное командой врачей и компьютерных ученых из Гарвардской медицинской школы и Медицинского центра Beth Israel Deaconess. Исследователи изучали, как модели OpenAI справляются с медицинскими задачами в сравнении с человеческими врачами.
В рамках одного из экспериментов, специалисты анализировали 76 случаев пациентов, поступивших в приемный покой Медицинского центра Beth Israel. Диагнозы, поставленные двумя дежурными врачами, сравнивались с выводами моделей OpenAI — o1 и 4o. Эти диагнозы оценивались двумя другими врачами, которые не знали, кто их выставил — человек или искусственный интеллект.
В исследовании отмечается: «На каждом этапе диагностики модель o1 либо превосходила, либо была на уровне с двумя дежурными врачами и моделью 4o». Особое внимание привлекли результаты на начальном этапе диагностики в приемном покое, когда у врачей было меньше информации о пациентах.
В пресс-релизе Гарвардской медицинской школы исследователи подчеркнули, что данные не проходили предварительную обработку, и AI-модели использовали информацию из электронных медицинских карт. С этой информацией модель o1 смогла предложить «точный или очень близкий диагноз» в 67% случаев, в то время как один из врачей достиг аналогичной точности в 55% случаев, а другой — в 50%.
Арджун Манрай, руководитель лаборатории по искусственному интеллекту в Гарвардской медицинской школе и один из ведущих авторов исследования, отметил, что AI-модель превосходит как предыдущие модели, так и базовые показатели, установленные врачами.
Исследование не утверждает, что искусственный интеллект готов к принятию жизненно важных решений в реальной практике экстренной медицины. Однако подчеркивается необходимость проведения дополнительных испытаний в реальных условиях медицинской помощи.
Также отмечается, что исследование касалось только работы моделей на текстовой информации, и другие исследования показывают, что существующие модели могут ограниченно работать с нетекстовой информацией.
Доктор Адам Родман из Beth Israel, один из авторов исследования, заявил, что пока нет формальных рамок для ответственности в принятии AI-диагнозов, и пациенты все еще нуждаются в человеческом руководстве при принятии жизненно важных решений.