IMG-LOGO
image

19 апр. 2024

Просмотров: 69

ИИ диагностирует болезни глаз: сравним результаты с врачами

Приветствую, друзья мои любопытные! Сегодня история, от которой у меня округлились глаза. Буквально. Ученые из Кембриджа решили «проверить зрение» искусственному интеллекту — и результаты, прямо скажу, заставили пристальнее всмотреться в детали.
Вот вам сенсация в двух предложениях: мощный алгоритм GPT-4 в тестах по диагностике глазных болезней обошел многих врачей. Но прежде чем вы побежите записываться на прием к нейросети, давайте расставим все точки над «i».

Большие языковые модели, эти современные цифровые эрудиты, становятся все умнее. И вот свежее исследование намекает: они уже могут ставить диагнозы по офтальмологии на уровне, а то и лучше некоторых специалистов. Но, как это часто бывает, самое интересное кроется в мелочах и оговорках.

Насколько же зорок оказался GPT-4?

Кембриджские исследователи устроили целое соревнование: в один угол ринга поставили GPT-4 и другие языковые модели, в другой — практикующих врачей разной квалификации. И что вы думаете? Сильный искусственный интеллект показал класс!

ИИ диагностирует болезни глаз: сравним результаты с врачами

На этом импровизированном экзамене GPT-4 верно распознал 60 случаев из 87. Он уверенно оставил позади врачей других специальностей (их средний балл — около 37 верных диагнозов) и даже обогнал ординаторов-офтальмологов (59.7). Оперил его лишь опытнейшие глазные врачи, чей средний результат составил 66 верных ответов. Что интересно, другие модели, та же GPT-3.5, заметно отстали — видимо, у них «зрение» похуже. Не правда ли, интригующе? Выходит, алгоритм уже сейчас способен стать грозой медицинских тестов?

ИИ диагностирует болезни глаз: сравним результаты с врачами

А теперь — холодный душ реальности

Однако праздновать победу машин пока рано. Даже такие впечатляющие цифры не означают, что завтра ИИ выпишет вам рецепт на очки. Почему? Во-первых, эти модели, увы, все еще страдают «галлюцинациями» — могут выдать убедительную, но абсолютно ложную информацию. В медицине такая ошибка может стоить очень дорого. Во-вторых, тест был хоть и показательным, но ограниченным — 87 случаев это не клиническая практика со всеми ее нюансами.

Так куда же нам с этим всем двигаться? Лично я вижу здесь не замену, а идеального помощника. Представьте: умный алгоритм, который молниеносно анализирует историю болезни и симптомы, предлагая врачу несколько наиболее вероятных вариантов. Это не увольнительная для докторов, а скорее мощный цифровой фонарик, освещающий путь к верному диагнозу. Будущее, где технологии и человеческий опыт работают в тандеме, выглядит куда привлекательнее, согласны?