IMG-LOGO
image

17 нояб. 2023

Просмотров: 97

Почему опасно доверять ИИ: главная ошибка — очеловечивать нейросети

Знаете, в чем главная ловушка нашего времени? Мы готовы поверить в сознание у тостера, если он заговорит человеческим голосом. Новое исследование из Имперского колледжа Лондона бьет прямо в эту нашу слабость. Ученые призывают: хватит очеловечивать ChatGPT и ему подобные системы! В них не больше души, чем в строке поиска Google. Давайте разберемся, почему это так важно и как правильные слова спасают нас от цифрового обмана.
Чат-боты стали настолько убедительными, что мы ловим себя на мысли: «Бедняга, он старается». Остановитесь. Этого делать категорически не стоит, и сейчас вы поймете почему.

Наше восприятие — вот где кроется корень проблемы. Мы эволюционно настроены на сочувствие и поиск разума в том, что хоть немного похоже на нас. Шутливый тон, связные ответы, даже стилистические ошибки — все это заставляет наш мозг включить режим «диалог с собеседником». И это крайне опасно.

Потому что на другом конце провода — не личность, а сложнейший статистический алгоритм, великолепно имитирующий человеческую речь. И если этой имитацией воспользуются мошенники или пропагандисты, мы можем, убаюканные иллюзией общения, отдать деньги, раскрыть секреты или поверить в откровенную ложь. Звучит как сценарий из «Черного зеркала», но это уже наша реальность.

Авторы работы, во главе с профессором Мюрреем Шанаханой, предлагают четкие рекомендации. Главная: перестать наделять ИИ человеческими качествами. Говоря, что нейросеть «понимает», «переживает» или «размышляет», мы совершаем грубую категориальную ошибку и становимся уязвимыми. Мы проецируем себя на пустоту. Не давайте ей ваше лицо.

Две спасительные метафоры: кто же в чате?

Почему опасно доверять ИИ: главная ошибка — очеловечивать нейросети

Так как же нам думать об этих системах, чтобы не попасться на крючок? Ученые предлагают две полезные метафоры. Выбирайте ту, что вам ближе, или переключайтесь между ними.

Первая — простая и наглядная. Представьте, что ChatGPT — это талантливый, но абсолютно бездушный актер. Он не проживает роль, а лишь идеально воспроизводит заученный текст и интонации, подходящие под ваш запрос. Его «личность» — всего лишь маска для данного конкретного диалога.

Вторая метафора — сложнее, но точнее. Вообразите, что система одновременно симулирует бесконечное множество возможных персонажей в мультивселенной всех вероятных ответов. Она не «играет» одного героя, а постоянно «держит пари» на все варианты, выбирая из них статистически наиболее правдоподобный в данный момент. Это машина вероятностей, а не сознания.

«Наиболее эффективная стратегия — свободно переключаться между этими метафорами, — говорит профессор Шанахан. — Но ни в коем случае не застревать на мысли, что перед вами человек». Помните об этом. Любая информация, которую вы вводите в чат, может быть использована. А ChatGPT не будет вам сочувствовать. Он просто не умеет. И слава богу, что пока не умеет.