SKYNET уже близко: опасности искусственного интеллекта

Ця стаття доступна українською мовою
chatgpt plugins

На прошлой неделе светила технологического мира призвали лаборатории искусственного интеллекта приостановить обучение мощнейших ИИ-систем как минимум на шесть месяцев, ссылаясь на "глубокие риски для общества и человечества".

 

Открытое письмо о приостановке разработки искусственного интеллекта

штучний інтелект

В открытом письме, которое сейчас подписали более 2100 человек, включая соучредителя Apple Стива Возняка, технологические лидеры призвали лабораторию OpenAI, базирующуюся в Сан-Франциско, прекратить дальнейшую разработку алгоритма GPT-4 до тех пор, пока не будут введены стандарты надзора. Это требование поддержали технологи, руководители, финансовые директора, аспиранты, психологи, врачи, разработчики программного обеспечения и инженеры, профессора и учителя государственных школ со всего мира.

Рекомендуем прочитать: Итальянцы не хотят бота ChatGPT

Ожидается, что GPT, который расшифровывается как Генеративный предварительно обученный трансформатор, эволюционирует до GPT-5 – и эта версия будет Генеративным искусственным интеллектом, или AGI. AGI – это ИИ, который может мыслить самостоятельно, и алгоритм будет продолжать развиваться в геометрической прогрессии.

По данным исследовательской группы Epoch, которая пытается спрогнозировать развитие трансформативного ИИ, примерно в 2016 году появилась тенденция к созданию обучающих моделей ИИ, которые были на два-три порядка больше, чем предыдущие системы. Эта тенденция сохранилась.

По словам Хайме Севильи, директора Epoch, пока не существует систем ИИ, больших чем GPT-4 с точки зрения учебных вычислений. Но это изменится.

Энтони Агирре, профессор физики в Университете Санта-Крус и вице-президент некоммерческой организации Future of Life, которая опубликовала открытое письмо к разработчикам, сказал, что нет оснований полагать, что GPT-4 не будет продолжать удваивать свою вычислительную мощность каждый год.

Рекомендуем прочитать: Midjourney: конец бесплатной эры

"Вычисления в самых больших масштабах увеличиваются в размерах примерно в 2,5 раза в год. Параметры GPT-4 не были раскрыты OpenAI, но нет оснований полагать, что эта тенденция остановилась или даже замедлилась, – сказал Аквиер. "Только сами лаборатории знают, какие именно вычисления они проводят, но тенденция неоспорима".

Что сказал Билл Гейтс об искусственном интеллекте AGI

інтелект

В своем блоге, выходящем раз в две недели, 23 марта, соучредитель Microsoft Билл Гейтс провозгласил AGI – способный изучать любую задачу или предмет – "великой мечтой компьютерной индустрии".

"AGI еще не существует – в компьютерной индустрии ведутся активные дебаты о том, как его создать и можно ли его создать вообще" – писал Гейтс. "Сейчас, с появлением машинного обучения и большого количества вычислительных мощностей, сложный ИИ стал реальностью, и он будет совершенствоваться очень быстро".

Мудду Судхакар, генеральный директор компании Aisera, которая занимается созданием ИИ для предприятий, сказал, что существует лишь несколько компаний, которые сосредоточены на AGI, таких как OpenAI и DeepMind (при поддержке Google), хотя они имеют "огромные финансовые и технические ресурсы".

Рекомендуем прочитать: ТОП-10 фильмов про искусственный интеллект к просмотру на этих выходных

Тем не менее, им еще предстоит пройти долгий путь, чтобы добраться до AGI.

"Существует так много задач, которые системы искусственного интеллекта не могут выполнять, но которые люди могут выполнять естественным образом, например, рассуждения на основе здравого смысла, знание того, что такое факт, и понимание абстрактных понятий (таких как справедливость, политика и философия)", – сказал Судхакар. "Для AGI предстоит много прорывов и инноваций. Но в случае успеха, кажется, что система в значительной степени заменит человека".

"Это, безусловно, будет разрушительным, и нужно будет установить много предохранителей, чтобы предотвратить полный контроль ИИ", – сказал Судхакар.  "Но пока что это, вероятно, в далеком будущем. Это больше из области научной фантастики".

Не все с этим соглашаются.

Польза искусственного интеллекта

користь штучного інтелекту

Технология искусственного интеллекта и чат-боты-помощники изменили и будут продолжать менять почти каждую отрасль. Технологии могут повысить производительность и взять на себя повторяющиеся задачи, позволяя работникам сосредоточиться на более важных задачах.

Например, большие языковые модели - алгоритмы, на которых работают чат-боты – могут просеивать миллионы уведомлений, онлайн-чатов и электронных писем, находить фишинговые веб-сайты и потенциально вредоносные исполняемые файлы. Чат-боты на основе моделей могут писать эссе, создавать маркетинговые кампании и предлагать компьютерный код – и все это на основе простых пользовательских запросов (предложений).

Чат-боты на основе LLM – это процессоры естественного языка, которые в основном предсказывают следующие слова после вопроса пользователя. Итак, если пользователь попросит чат-бота создать стихотворение о человеке, сидящем на пляже в Нантакете, искусственный интеллект просто соединит вместе слова, предложения и абзацы, которые являются лучшими ответами на основе предварительного обучения программистов.

Рекомендуем прочитать: Сколько электроэнергии потребляет искусственный интеллект?

Однако ИИ также допускает очевидные ошибки и может создавать абсурдные ситуации, когда механизмы, генерирующие следующие слова, сходят с рельсов и выдают причудливые ответы.

Искусственный интеллект может оказаться неконтролируемым

робот інтелект

Если ИИ на базе LLM с миллиардами регулируемых параметров может сбиться с пути, то насколько большим будет риск, когда ИИ больше не будет нуждаться в обучении со стороны человека и сможет мыслить самостоятельно? Ответ очень серьезный, считает Авива Литан, вице-президент и аналитик Gartner Research.

Литан считает, что лаборатории по разработке ИИ мчатся вперед с огромной скоростью без какого-либо надзора, что может привести к тому, что ИИ станет неконтролируемым.

"Лаборатории ИИ, говорит он, мчатся вперед, не создавая надлежащих инструментов для пользователей, которые могли бы контролировать происходящее. Я думаю, что это происходит гораздо быстрее, чем кто-либо ожидал" – сказал он.

Сейчас беспокойство вызывает то, что технология ИИ для использования корпорациями выпускается без инструментов, необходимых пользователям для определения того, генерирует ли технология точную или неточную информацию.

"Сейчас мы говорим обо всех хороших персонажах, которые имеют все эти инновационные возможности, но злодеи тоже имеют их" – сказал Литан. "Поэтому мы должны иметь системы контроля и знать, что является настоящим, а что синтетическим. И мы не можем полагаться на обнаружение, мы должны иметь аутентификацию контента. Иначе дезинформация будет распространяться как лесной пожар".

Рекомендуем прочитать: Сколько электроэнергии потребляет искусственный интеллект?

Например, на этой неделе Microsoft запустила Security Copilot, который базируется на обширной языковой модели GPT-4 OpenAI. Инструмент представляет собой чат-бот с искусственным интеллектом для экспертов по кибербезопасности, который помогает им быстро выявлять угрозы и реагировать на них, а также лучше понимать общий ландшафт угроз.

Проблема заключается в том, что "вы, как пользователь, должны входить в систему и обнаруживать любые ошибки, которые она делает", – сказал Литан. "Это неприемлемо. У них должна быть какая-то система оценивания, которая говорит, что этот результат, вероятно, на 95% соответствует действительности, то есть имеет 5% вероятность ошибки. А это имеет вероятность ошибки 10%. Они не дают вам никакого представления о результатах, чтобы понять, можно ли им доверять или нет".

Большей проблемой в ближайшем будущем станет то, что разработчик GPT-4, OpenAI, выпустит версию с поддержкой AGI. На тот момент может быть слишком поздно остановить эту технологию.

Одно из возможных решений, которое предложил Литан, – выпускать две модели для каждого инструмента генеративного ИИ: одну для генерации ответов, а другую – для проверки точности первой.

"Это могло бы сделать действительно хорошую работу, гарантируя, что модель выдает что-то, чему можно доверять", – сказал он. "Вы не можете ожидать, что человек будет просматривать весь этот контент и решать, что является правдой, а что нет, но если вы дадите ему другие модели, которые проверяют ... это позволит пользователям контролировать производительность".

OpenAI проверяла работу ChatGPT, платя нанятым работникам 2 доллара в час

девушка и робот

В 2022 году издание Time сообщило, что OpenAI наняла низкооплачиваемых рабочих в Кении, чтобы определить, производит ли ее GPT LLM безопасную информацию. Как сообщается, работники, нанятые компанией Sam, базирующейся в Сан-Франциско, получали зарплату в размере 2 долларов в час и должны были отсеивать ответы приложения GPT, "которые были склонны к распространению насильственных, сексистских и даже расистских высказываний".

Рекомендуем прочитать: Как заработать с помощью искусственного интеллекта

"И так вы нас защищаете? Платя людям 2 доллара за час. Это абсолютно неэффективно и абсолютно аморально" – сказал Литан.

"Разработчики ИИ должны работать с политиками, и эти политики должны, как минимум, включать новых компетентных регуляторов" – продолжил Литан.

Шубхам Мишра, соучредитель и главный исполнительный директор стартапа Pixis, считает, что, хотя прогресс в его отрасли "не может и не должен останавливаться", призыв остановить развитие ИИ является оправданным. Генеративный ИИ, по его словам, способен запутать массы, распространяя пропагандистскую или "труднодифференцированную" информацию в открытом доступе.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 03 квітня

2025

2024

2023