Основатель ChatGPT создал компанию для разработки безопасного суперинтеллекта
Суцкевер всегда был скорее тревожным пророком, чем апологетом безудержного роста. Он не призывал ставить на ИИ красный свет, как это делают некоторые, но и яростно выступал против того, чтобы технологии развивались лишь под давлением квартальных отчётов. Его разногласия с Сэмом Альтманом и уход из OpenAI — лучшее тому подтверждение. Теперь он и его команда хотят проверить гипотезу: можно ли сделать так, чтобы меры безопасности не догоняли, а опережали развитие самого интеллекта?
В своём заявлении они предельно лаконичны и радикальны. Судите сами.
Суперинтеллект уже в пределах досягаемости.
Создание безопасного суперинтеллекта (SSI) — важнейшая техническая проблема нашего времени. Мы запустили первую в мире полноценную лабораторию SSI с одной целью и одним продуктом: безопасный суперинтеллект. Она называется Safe Superintelligence Inc. SSI — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наша единственная цель. Наша команда, инвесторы и бизнес-модель ориентированы на достижение SSI.
Мы подходим к безопасности и возможностям одновременно, как к техническим проблемам, которые необходимо решить посредством революционных инженерных и научных прорывов. Мы планируем расширять возможности как можно быстрее, но, следя за тем, чтобы наша безопасность всегда была впереди. Таким образом, мы можем спокойно масштабироваться.
Наша исключительная направленность означает, что мы не отвлекаемся на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель означает, что безопасность, защищенность и прогресс изолированы от краткосрочного коммерческого давления.

Теперь им предстоит доказать, что их подход — не просто красивая декларация, а работающая методология. Получится ли у них превратить главную страшилку эпохи ИИ в инженерную задачу? Время покажет. Но одно ясно: заявление сделано, и игнорировать его уже не получится.