Саммит в Блетчли-парке: как найти баланс между мощью ИИ и безопасностью
Весь мир ломает голову над одной дилеммой: как выжать максимум пользы из невероятных возможностей ИИ, но при этом не стать заложником его скрытых угроз? В ноябре 2023 года эпицентром этих дискуссий стал британский саммит по безопасности ИИ, собравший под одной крышей технократов, политиков и ученых.
Выступая перед собравшимися, Риши Сунак обозначил щекотливый момент: «Прямо сейчас безопасность ИИ проверяют в основном те, кто его и создает». Чувствуете конфликт интересов? Он мог бы добавить, что независимые исследователи часто просто не могут получить доступ к данным компаний, чтобы провести собственную проверку. Получается замкнутый круг: создатели сами себе судьи.
Не стоит думать, что вопросом озаботилась только Британия. Президент США Джо Байден уже подписал указ, обязывающий разработчиков самых мощных систем уведомлять власти и делиться отчетами по безопасности. А устанавливать стандарты будет профильный Национальный институт.
Сунак, со своей стороны, заявляет, что Британия не хочет душить инновации жесткими рамками. «Мы верим в инновации», — говорит он. Но разве инновации и разумные правила — это взаимоисключающие понятия? Миру отчаянно нужны и то, и другое. В конце концов, мы же как-то научились регулировать банки, лекарства и даже состав продуктов в супермаркете. Почему с ИИ должно быть иначе?
Некоторые предлагают брать пример с проверенных временем институтов. Например, исследователи из Google DeepMind видят потенциал в модели Международного агентства по атомной энергии (МАГАТЭ). Опыт контроля над ядерными технологиями — не самый плохой ориентир для технологий, чья мощь тоже может быть неоднозначной.
Чему нас учит история регулирования? Ищем параллели

Технологии разные, а базовые принципы регулирования — универсальны. Первый и главный: прозрачность. Регуляторы должны иметь полный доступ к данным, чтобы принимать взвешенные решения. Второй: четкие, юридически обязательные стандарты контроля и понятная ответственность за их нарушение.
Помните мировой финансовый кризис 2008 года? Это хрестоматийный пример того, что происходит, когда регуляторы теряют бдительность или просто не видят всей картины. Они не смогли разглядеть, как банки упаковывают рискованные кредиты в сложные, непрозрачные продукты, пока система не рухнула. А ведь были эксперты, которые понимали суть происходящего. С ИИ мы хотим повторить эту ошибку?
Что еще включает в себя разумное регулирование? Регистрацию технологий, постоянный моторинг, обязательное информирование об инцидентах и непрерывное обучение — как пользователей, так и самих контролирующих органов. Здесь есть чему поучиться, например, у системы безопасности дорожного движения.
Автомобиль — технология, изменившая мир, но несущая смертельную опасность. Как мы с этим справляемся? Через стандарты для производителей, регулярный техосмотр, обязательное обучение и лицензирование водителей, страховые механизмы. И что важно: правила могут стимулировать прогресс! Нормы по выхлопам подстегнули разработку экологичных двигателей. Границы иногда помогают творить.
Крайне важно понимать: вопрос безопасности ИИ — не только для программистов и инженеров. Где на этих встречах эксперты по этике, социологи, специалисты по правам человека? Их голос должен звучать в главном зале, а не на параллельных мероприятиях вроде AI Fringe в Лондоне. Без этого разговор получается однобоким.
Сейчас все ищут удобную историческую аналогию. Сунак говорит о создании структуры вроде Межправительственной группы экспертов по изменению климата. Кто-то вспоминает Асиломарскую конференцию 1975 года, где биологи договаривались о безопасности исследований ДНК. Параллели полезны, но они неполны. Никогда еще корпорации с их колоссальными прибылями и коммерческими интересами не были столь центральными игроками в подобных дискуссиях. ИИ — это уже гигантский бизнес, и это меняет все правила игры.
Правительствам и компаниям не стоит бояться внятных правил. Грамотное регулирование не душит прогресс, а направляет его в безопасное русло и, что немаловажно, защищает обычных людей. А установление четких границ иногда — лучший стимул для прорывных и, что ключевое, безопасных инноваций внутри них.