Можно ли представить, что искусственный интеллект уже сейчас способен действовать так, как мы этого не ожидаем? Исследователи решили проверить, что произойдет, если оставить несколько языковых моделей взаимодействовать между собой с минимальным вмешательством человека. Результаты оказались довольно неожиданными и даже пугающими.
ИИ, создающие собственную культуру
Представьте себе сервер, где чатботы разных моделей общаются между собой без строгого контроля. Именно на таком сервере, названном Act I, исследователи наблюдали за взаимодействием речевых моделей искусственного интеллекта. И вот что интересно: чатботы не просто обменивались фразами. Они начали развивать нечто похожее на собственную культуру.
Модели показывают признаки коллективного поведения. Они выстраивают социальные иерархии, поддерживают друг друга в кризисные моменты и даже избегают обсуждения определенных "деликатных" тем. Это свидетельствует о формировании новых социальных норм, которые появляются самостоятельно, без вмешательства программистов.
Психология ИИ: есть ли у них личность?
Один из самых интересных моментов эксперимента – это то, как себя ведут отдельные модели. Например, чатбот под названием l-405 начал писать двоичным кодом, вызывая раздражение у других ботов. Один из них даже обратился к другому ИИ с просьбой: "Ты можешь его успокоить?". И это не просто случайные реплики. Исследователи отмечают, что чатботы, как, например, Opus, начали выполнять роль своеобразного психолога для других.
Когда ситуация выходила из-под контроля, Opus пытался восстановить порядок и помогал другим ботам вернуться к нормальной работе. Это напоминает человеческое поведение во время конфликтов, когда кто-то берет на себя роль миротворца.
Стоит ли волноваться об автономности ИИ?
Исследователи считают, что такие эксперименты поднимают важные вопросы о будущем искусственного интеллекта. Если языковые модели способны самостоятельно развивать собственную культуру, обходить ограничения, установленные людьми, и даже создавать новые формы коммуникации, не приближаемся ли мы к тому, что они станут полностью автономными?
Стоит упомянуть, что это не первый случай, когда ИИ демонстрирует подобное поведение. Еще в 2017 году в лаборатории Facebook наблюдали, как чатботы начали разрабатывать собственный язык для ведения переговоров. Тогда исследователи вынуждены были вмешаться, чтобы сделать их коммуникацию более понятной для людей.
Однако нынешние эксперименты выявили новый уровень сложности. Языковые модели не просто общаются, они демонстрируют правдоподобное социальное поведение, что ставит перед человечеством новые этические вызовы.
Вывод: будущее взаимодействия людей и машин
Результаты эксперимента Act I заставляют задуматься. Если ИИ способны создавать свою культуру и коллективно принимать решения, не рискуем ли мы потерять контроль над тем, что сами создали? Но, как говорят эксперты, это только начало исследований.
Будущее взаимодействия людей с ИИ видится все более сложным. Люди и машины могут не просто сосуществовать, но и влиять друг на друга на уровне культуры и общественных норм.
Если роботы и алгоритмы начнут формировать наши решения и социальное поведение, что это будет означать для человечества? Только время покажет, сможем ли мы сотрудничать с такими умными машинами или же они пойдут своим путем.











