Профессор Александр Вайз, ученый-компьютерщик и руководитель Центра развернутого машинного обучения в Массачусетском технологическом институте, который работает над темой интеллекта, дал интервью PAP. "Я не думаю, что полезно беспокоиться о сценарии прямо из фильма "Терминатор", но мы видим, что текущего развития искусственного интеллекта достаточно, чтобы произвести революцию в мире". Алекс". Однако он предупреждает, что оставление мира ИИ нерегулируемым, как на Диком Западе, может иметь далеко идущие последствия.
В марте более тысячи инвесторов, исследователей и экспертов в области ИИ подписали открытое письмо, в котором призвали остановить разработку самых современных моделей ИИ. Авторы письма подчеркнули как краткосрочные, так и приземленные риски безудержной гонки за все более мощными моделями ИИ, такие как потенциальная массовая потеря рабочих мест и поток дезинформации, а также "замена людей машинами" и даже "потеря контроля над цивилизацией".
Профессор Вайз: гораздо более насущные проблемы, чем "суперинтеллект" AGI
Профессор Уайз считает, что хотя проблемой опасности "суперинтеллекта" или AGI (общего искусственного интеллекта) занимаются серьезные и известные люди, пока это все еще далекая перспектива. А пока что есть гораздо более насущные проблемы. "Я не хочу строить из себя ясновидца, потому что в прошлом я ошибался относительно того, как быстро развивается эта технология. Но я не думаю, что мы близки к таким сценариям. Я думаю, что в краткосрочной перспективе мы увидим удивительные вещи, некоторые из которых будут похожи на AGI, но технологическая сингулярность? Мы не близки к этому (...) Это, безусловно, возможное будущее, но я не думаю, что это самая продуктивная вещь для государства на данный момент", - сказал он в интервью PAP. Однако, как он отмечает, прогресса, который мы видели до сих пор, достаточно, чтобы изменить мир почти во всех сферах. И он подчеркивает, что его больше беспокоят более приземленные последствия широкого внедрения технологии, такие как возможные предубеждения, возникающие из-за данных, на которых обучаются модели ИИ, или использование ИИ для широкомасштабной дезинформации.
По мнению Уайза, также вызывает беспокойство общий недостаток прозрачности относительно того, как работают эти модели и на чем они основываются. Как он отмечает, их создатели сами не могут точно определить, как большие языковые модели (LLM), такие как ChatGPT, приходят к своим решениям и ответам. Эта проблема может еще больше усложниться, поскольку более специализированные модели строятся на основе базовых моделей, создавая целую экосистему и "цепочку поставок ИИ"" - добавляет исследователь.
Это связано с тем, что взаимодействие между различными системами ИИ является очень малоисследованной сферой, и прошлый опыт свидетельствует, что такие комбинации могут привести к непредсказуемым результатам. Как отмечает исследователь, такая экосистема уже формируется, и можно ожидать взрыва разнообразных применений ИИ. "Не совсем понятно, как выглядят эти взаимодействия между различными моделями. Мы не можем предсказать, как такая модель может дать сбой, как она может вести себя, какие у нее могут быть "предубеждения"", и это может иметь очень специфические последствия, которые трудно исправить. "Может случиться так, что вся эта композиция из разных моделей сделает какую-то серьезную по своим последствиям ошибку, даже если эти отдельные компоненты по отдельности не сделали никакой. И тогда встанет вопрос: кто за это будет отвечать?". При этом профессор отмечает, что если проблему "галлюцинаций" и ошибок таких моделей, как ChatGPT, можно улучшить, то устранить их может быть очень сложно.
В этом контексте, добавляет он, беспокойство вызвал шаг нынешнего лидера гонки ИИ, OpenAI, который решил положить конец модели с открытым исходным кодом, выпустив свою последнюю модель GPT-4 и закрыв доступ к внутренним данным программы для сторонних исследователей.
"Мы должны начать серьезно думать о том, какой может быть жизнеспособная модель открытия этого "черного ящика". Это может потребовать значительных общественных усилий" – оценивает Вайз. Он добавляет, что недостаток знаний и прозрачности о том, как работают модели ИИ, приводит к их антропоморфизации людьми, что является опасным.
Эксперты по искусственному интеллекту могут попасть в когнитивную ловушку, предостерегает профессор Уайз
То, что в эту ловушку могут попасть даже эксперты по искусственному интеллекту, показывает случай с теперь уже бывшим сотрудником Google Блейком Лемуаном, который утверждал в СМИ, что созданная компанией модель LaMDA достигла самоосознания. "Если мы не видим, как что-то работает, мы начинаем антропоморфизировать это, потому что может сложиться впечатление, что мы разговариваем с человеком. Я думаю, что это очень опасная когнитивная ошибка. Хотя в некотором смысле мы действительно разговариваем с человеком, потому что то, что выплевывает модель, – это творчески перетасованные слова, которые кто-то уже говорил в интернете раньше. Стоит помнить, что эти машины говорят как человек, потому что это их работа – пытаться научиться говорить как человек, опираясь на мощную базу данных и текстов" – объясняет профессор Вайз. Он добавляет, что хотя LLM-модели способны "мыслить", то есть приходить к логическим выводам, это, как правило, неглубокие мысли.
"Конечно, эти инструменты невероятно замечательные. Я в восторге от них и мне нравится с ними работать. Но нам нужно перестать думать о них как о людях. Они не имеют сознания", – отмечает ученый.
По его словам, существует несколько рисков, связанных с гонкой компаний, разрабатывающих системы искусственного интеллекта. Он объясняет, что поскольку создание масштабных моделей искусственного интеллекта требует много ресурсов и инвестиций, это означает, что ключевая сфера экономики и жизни может оказаться в руках нескольких крупных игроков. "Я также думаю, что было бы важно подумать о том, должно ли, например, правительство США иметь свою собственную модель. Ведь, в конце концов, оно не может полагаться на то, что всегда будет располагать моделями от OpenAI или Google". Кроме того, – утверждает исследователь, – если разработчики систем будут руководствоваться только бизнес-логикой гонки, пренебрегая этическими соображениями, эффект будет подобен тому, что мы наблюдаем в случае с социальными сетями.
Он добавляет, что то же самое касается и соперничества между США и Китаем, которое создает дополнительное давление для быстрого, хотя и не обязательно хорошо продуманного, прогресса. "Мой аргумент заключается в том, что если мы не создадим искусственный интеллект, который будет отражать наши ценности, если отбросить вопросы этики и прав человека, мы уже проиграем. Да, мы можем победить Китай, но тогда мы сами станем Китаем. Так что же это за победа?" – спрашивает эксперт. И призывает к регулированию – начиная с добровольного применения лучших практик и диалога, чтобы избежать ошибок прошлого. "Пессимистический сценарий заключается в том, что ничего не будет сделано: это будет как с социальными сетями, работа которых заключается в максимизации прибыли без учета более широких последствий. Это будет некий Дикий Запад. Поэтому я должен быть оптимистом, потому что если ничего не произойдет, то будет очень плохо", – признает профессор.