ИИ диагностирует болезни глаз: сравним результаты с врачами
Большие языковые модели, эти современные цифровые эрудиты, становятся все умнее. И вот свежее исследование намекает: они уже могут ставить диагнозы по офтальмологии на уровне, а то и лучше некоторых специалистов. Но, как это часто бывает, самое интересное кроется в мелочах и оговорках.
Насколько же зорок оказался GPT-4?
Кембриджские исследователи устроили целое соревнование: в один угол ринга поставили GPT-4 и другие языковые модели, в другой — практикующих врачей разной квалификации. И что вы думаете? Сильный искусственный интеллект показал класс!
На этом импровизированном экзамене GPT-4 верно распознал 60 случаев из 87. Он уверенно оставил позади врачей других специальностей (их средний балл — около 37 верных диагнозов) и даже обогнал ординаторов-офтальмологов (59.7). Оперил его лишь опытнейшие глазные врачи, чей средний результат составил 66 верных ответов. Что интересно, другие модели, та же GPT-3.5, заметно отстали — видимо, у них «зрение» похуже. Не правда ли, интригующе? Выходит, алгоритм уже сейчас способен стать грозой медицинских тестов?
А теперь — холодный душ реальности
Однако праздновать победу машин пока рано. Даже такие впечатляющие цифры не означают, что завтра ИИ выпишет вам рецепт на очки. Почему? Во-первых, эти модели, увы, все еще страдают «галлюцинациями» — могут выдать убедительную, но абсолютно ложную информацию. В медицине такая ошибка может стоить очень дорого. Во-вторых, тест был хоть и показательным, но ограниченным — 87 случаев это не клиническая практика со всеми ее нюансами.
Так куда же нам с этим всем двигаться? Лично я вижу здесь не замену, а идеального помощника. Представьте: умный алгоритм, который молниеносно анализирует историю болезни и симптомы, предлагая врачу несколько наиболее вероятных вариантов. Это не увольнительная для докторов, а скорее мощный цифровой фонарик, освещающий путь к верному диагнозу. Будущее, где технологии и человеческий опыт работают в тандеме, выглядит куда привлекательнее, согласны?