Поддержать команду Зеркала
Беларусы на войне
  1. У мобильных операторов — очередные изменения
  2. В Минске строят медцентр для сотрудников КГБ и их семей. На него потратят минимум 15 миллионов долларов «спонсорских денег»
  3. «Были попытки сфотографировать бюллетени». В ФПБ сообщили о «первых внештатных ситуациях» на досрочном голосовании
  4. Беларусов все сложнее удивить, но эта цифра явно может — выяснили, сколько денег взяли из госбюджета на акции, где восхваляют Лукашенко
  5. С 1 февраля повысят пособия на детей до трех лет. Посчитали, сколько составит прибавка
  6. Протасевич сходил к Азаренку и рассказал, что счастлив, что выборы в Беларуси пройдут спокойно
  7. Проголосовать должны все. Узнали, как ради стопроцентной явки на выборах в больницах ограничивают права пациентов
  8. В ФПБ рассказали о новых «происшествиях» на участках для голосования. В одном случае пришлось вызывать силовиков
  9. В Беларуси банкротится компания такси — к ней возникли вопросы из-за налогов
  10. Лукашенко помиловал 15 человек, среди них не только «экстремисты»
  11. ООН направила Беларуси письмо с обвинениями. Рассказываем, о чем речь
  12. «Умелая игра Лукашенко». Исследователи рассказали о настроениях беларусов (раскол сохраняется, но есть и поводы для оптимизма)
  13. Во время досрочного голосования власти идут на рекорды по числу «выполнивших гражданский долг». К чему такая спешка — объясняют эксперты
  14. ISW: Кремль озабочен тем, как защитить предприятия военпрома и склады на граничащих с Украиной территориях от ударов ВСУ
  15. В Минском районе воспитанница детской деревни покончила с собой. «Зеркало» узнало подробности из непубличного документа прокуратуры


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.