ChatGPT провалил ЕГЭ по физике: нейросеть не дотянула до проходного балла
Вскрыть все болевые точки вызвался Леонид Колдунов, кандидат наук и преподаватель Физтеха. Он устроил нейросети полный разбор полетов по всем фронтам: механика, оптика, термодинамика, электричество. Оказалось, что GPT косячит не только в финальных цифрах, но и в фундаментальном понимании процессов. Он путается в терминах и не видит за формулами живую физику.
«Сильные стороны GPT заканчиваются там, где кончается шаблон, — говорит Леонид Колдунов. — Дайте ей простую, формальную задачку — справится. Но стоит потребовать анализа, интерпретации условия или капельки воображения, как система впадает в ступор. Вот, например, классический случай: условие гласит — «длина волны изменилась в два раза». Что сделал бы человек? Спросил бы: «Увеличилась или уменьшилась?» или рассмотрел оба варианта. А нейросеть? Она просто перечислила формулы, не сделав ни шага в сторону анализа. С такими-то навыками в МФТИ, конечно, не поступишь». Ну правда, разве можно назвать это мышлением?
На эксперимент обратил внимание и Игорь Пивоваров, главный аналитик Центра ИИ МФТИ. Его вердикт таков: творчеством тут и не пахнет, но научить модель всё же можно — было бы желание и правильный подход.

«Честно говоря, меня результат не удивил, — отмечает Игорь Пивоваров. — У всех подобных систем, включая ChatGPT, врождённые проблемы с математикой и логическими цепочками. Но люди уже нашли лазейку: если заставить нейросеть рассуждать вслух, по шагам, дать ей чёткий промт-инструкцию, качество ответов резко взлетает. Получается, что она способна на большее, но ей нужна очень жёсткая «натасканная» рамка».
Итак, каков общий вывод специалистов? Всё семейство больших языковых моделей, какими бы умными они ни казались в отдельных диалогах, пока хронически страдает от неумения выстраивать длинные, последовательные логические цепочки.
Их параметр «здравого смысла» и способности к многоходовому рассуждению на порядок ниже человеческого. Поэтому когда задача требует не шаблонного, а гибкого, творческого подхода — генеративные модели, увы, дают сбой. Пока что.