IMG-LOGO
image

14 июн. 2024

Просмотров: 56

Нейросеть, которая признаёт ошибки: как ансамбль ИИ повышает точность

Представьте: нейросеть, которая умеет честно сказать «я не уверена». Звучит как мечта, особенно когда от её решения зависят жизни или безопасность. Именно такой инструмент создали в Московском авиационном институте — студенты-магистры собрали ансамбль из девяти нейросетей, которые коллегиально принимают решения, резко сокращая число ошибок. Для кого это прорыв? Для всех, кто работает с компьютерным зрением: от создателей беспилотников и телемедицинских сервисов до финансовых аналитиков и страховщиков. Наконец-то ИИ может не только пытаться угадать, но и признавать пределы своей компетенции.

Как это работает? Девять разных «мозгов» смотрят на одну задачу, но каждый под своим углом. Сначала каждый предлагает свой вариант, а затем они... голосуют. Да-да, самый настоящий эволюционный совет, где побеждает самое обоснованное мнение. А если консенсуса нет, система просто отказывается давать ответ. Просто и гениально, не правда ли?

«Представьте системы распознавания «свой-чужой» на охраняемом объекте или анализ рентгеновского снимка на рак — тут ошибка недопустима, — поясняет Борис Харченко, руководитель проекта и магистрант института №3 МАИ. — Поэтому мы сфокусировались не просто на точности, а на надёжности. Наша система умеет говорить «не знаю», и это не слабость, а признак интеллектуальной честности».

Нейросеть, которая признаёт ошибки: как ансамбль ИИ повышает точность

Во всём мире пытаются заставить нейросети быть точнее, но большинство подходов всё ещё работает по принципу «ответить любой ценой». Ключевая фишка разработки МАИ — внедрение здравого смысла. Если модели не уверены, они не станут гадать. Это радикально меняет уровень доверия к технологии. Ведь иногда самое умное, что можно сделать, — это воздержаться от решения.

Цифры говорят сами за себя. На тестах с заведомо сложными, плохо различимыми цифрами ансамбль показал точность в 84% — на целых 17% выше, чем лучшая одиночная сеть. Но что ещё важнее: в 14% случаев система предпочла честно признаться в неуверенности, вместо того чтобы выдать вероятную ошибку. Разве не так должен поступать любой ответственный специалист?

К концу 2024 года команда планирует адаптировать систему для других типов задач и активно ищет инвесторов, готовых поддержать этот вдумчивый подход к искусственному интеллекту. Будущее, где машины знают границы своих знаний, выглядит куда безопаснее.

Материал был подготовлен при поддержке Минобрнауки России.