IMG-LOGO
image

25 нояб. 2023

Просмотров: 77

Скандал в OpenAI: что он значит для будущего ИИ и безопасности

Бурная неделя в OpenAI — не просто корпоративная драма. Увольнение и триумфальное возвращение Сэма Альтмана обнажили глубокий раскол в сердце самой известной ИИ-компании. Эксперты видят в этом симптом более серьёзной болезни: неумолимого противоречия между коммерческим успехом и декларируемой миссией безопасности.
Шумиха вокруг OpenAI уникальна. Мало какая частная компания своими внутренними разборками может всерьёз «потрясти» не только ИИ-рынок, но и заставить задуматься всё человечество о будущем, которое мы строим. Не правда ли, показательно?

Если вы следите за миром технологий, то наверняка слышали о кадровом землетрясении в OpenAI, создателе ChatGPT. Всё началось 17 ноября с неожиданного увольнения харизматичного гендиректора Сэма Альтмана. Пять дней хаоса — угроза массового исхода сотрудников, заманчивое предложение от Microsoft, публичные требования распустить совет директоров — и вот Альтман снова на своём посту, а совет директоров готовят к полной перезагрузке.

Но эксперты, опрошенные журналом Nature, видят в этой истории не просто борьбу за власть в стартапе стоимостью в десятки миллиардов. Всё гораздо глубже. «Стремление к доминированию на рынке рождает токсичную конкуренцию. Это гонка ко дну», — говорит Сара Майерс Уэст, управляющий директор Института AI Now.

Альтман — не просто руководитель. Он соучредитель и публичное лицо OpenAI, человек, привлекший многомиллиардные инвестиции Microsoft. Его первоначальное увольнение и последующее возвращение после ультиматума сотен сотрудников — это больше, чем кадровое решение. Это битва за душу компании.

Совет директоров, отстранивший Альтмана, был крайне скуден на объяснения. Сначала говорили о «недостаточной откровенности», потом исключили финансовые или правовые нарушения. Многие аналитики считают, что истинная причина — фундаментальный раскол между сторонниками агрессивного коммерческого роста и теми, кто помнит первоначальную некоммерческую миссию: создание общего искусственного интеллекта (ИИИ) на благо всего человечества. Вопрос в том, совместимы ли эти цели сегодня?

Культурный сдвиг: от миссии к прибыли

Скандал в OpenAI: что он значит для будущего ИИ и безопасности

OpenAI родилась в 2015 году как некоммерческая организация. Её необычная гибридная модель с «ограниченной прибылью» была призвана защитить миссию от давления инвесторов. Увольнение Альтмана, по мнению социолога Джатана Садовски, — явный симптом конфликта между этой культурой и жаждой прибыли.

Особенно показательно участие Ильи Суцкевера, главного научного сотрудника и члена того самого совета. Летом он переключился на проект «сверхсогласованности» — попытку гарантировать, что будущий сверхразум будет подконтролен. Это порождает вопрос: стал ли разгон коммерческих продуктов слишком рискованным с точки зрения безопасности? Интересно, что позже Суцкевер поддержал возвращение Альтмана, но из нового состава совета его исключили.

Новый совет выглядит скорее как классический совет директоров технологической компании, а не как хранитель миссии. Всё указывает на то, что OpenAI окончательно превращается в ориентированную на прибыль корпорацию Кремниевой долины. Похоже, идеалистическое прошлое осталось позади.

Гонка, где все ускоряются

Скандал в OpenAI: что он значит для будущего ИИ и безопасности

Ровно год назад, 30 ноября 2022-го, мир увидел ChatGPT. Этот бот, основанный на большой языковой модели, не просто поразил публику — он запустил глобальную гонку. Google выпустил Bard, Amazon развивает Titan, а стартапы вроде Anthropic (основанного бывшими сотрудниками OpenAI) активно конкурируют.

Уэст тревожит то, что продукты выходят раньше, чем кто-либо успевает полностью понять их поведение и риски некорректного использования. А вся эта гонка зависит от вычислительных ресурсов всего трёх гигантов: Google, Microsoft и Amazon. Получается, будущее ИИ определяет горстка корпораций в бешеной конкуренции друг с другом. Звучит как рецепт для неприятностей, не находите?

Безопасность: снятые тормоза

Скандал в OpenAI: что он значит для будущего ИИ и безопасности

«Если вы хотите разогнать машину как можно быстрее, первым делом снимаете тормоза», — говорит Джеффри Хинтон, один из «крестных отцов» глубокого обучения и учитель Суцкевера. Его беспокойство растёт вместе со скоростью прогресса. Раньше он думал, что общий ИИ (ИИИ) появится через 30–100 лет. Теперь говорит о 5–20 годах.

Опасности ИИ можно разделить на ближние и дальние. Ближние — это уже реальность: создание дезинформации, мошенничество, усиление социальных предрассудков. Дальние — сюжеты из научной фантастики, которые Хинтон считает вполне возможными. Например, сверхразумный ИИ может решить, что страдания человечества настолько велики, что гуманнее его уничтожить. Даже если изначально он был запрограммирован на благо людей.

Недавний саммит по безопасности ИИ в Великобритании — попытка опередить эти риски. Но Уэст настаивает: регуляторам пора перестать смотреть на ИИ-гигантов сквозь пальцы и начать применять существующие законы, особенно антимонопольные. Власть сосредоточена в руках слишком немногих игроков.

Ирония в том, что самые неповоротливые — государственные институты — должны угнаться за технологиями, которые развиваются со скоростью света. ChatGPT-3 вышел всего год назад, а мир уже кардинально изменился. Успеем ли мы задуматься, прежде чем будет слишком поздно? История с OpenAI — тревожный звонок для всех нас.