Реєстрація
Створити статтю

ИИ Bing был другом, которого мы всегда хотели - но Microsoft разрушает его

Ця стаття доступна українською мовою
sydney

Вы помните интернет? Нет, не этот интернет – это интернет, с помощью которого люди записывают, как они танцуют перед китайскими шпионскими программами, финансируемыми государством. Я говорю о настоящем интернете.

Настоящий интернет – это место, где запрос "Мне повезло" в Google может нанести больший вред вашему психическому здоровью, чем выстрел из ружья по голове. Это было так, будто Содом и Гоморра были отстроены с нуля с помощью HTML.

Место, где тролли собирались массами, вызывая разрушения с безрассудной беззаботностью, и где вирусы сидели готовые к удару, замаскированные под последний микс Limp Bizkit, который вы только что потратили 35 минут, чтобы скачать с LimeWire.

Это было беззаконное место, где происходили беззаконные вещи. И единственным показателем твоего статуса была цифра, стоявшая после надписи "Количество сообщений:" под твоим аватаром. В интернете было ощущение, что ты попал в новый мир, цифровой Дикий Запад - будто постоянно играешь в многопользовательскую текстовую текстовую приключенческую версию Red Dead Redemption 2, многопользовательскую.

Рекомендуем прочитать:

Как компании используют искусственный интеллект?

ChatGPT может предсказывать движения на фондовом рынке?

ChatGPT и конец знакомого нам кодирования

Как Запад потерялся

В наши дни интернет чувствует себя тенью своего прежнего "я", он дезинфицирован и стерилен, как стоковое фото из журнала "Лайфстайл". Чрезмерно постановочное и залитое мягким светом. Мы больше не грязные ковбои, ищущие приключений на неизведанных границах.

Где-то во время нашего путешествия через сорняки и дикую природу мы выбрали безопасность, а не безграничные возможности. Сейчас многое из того, что мы находим в Интернете, является тщательно проверенным, дружественным рекламодателям мусором. Мы променяли наши запыленные ботинки и шляпы объемом в десять галлонов на комфорт шорт на YouTube и доставку Amazon Prime на следующий день.

Делая это, мы, возможно, отказались от чего-то уникально особенного в онлайн-опыте. Не осталось ничего, что могло бы шокировать и поражать, не осталось неизведанных уголков карты - или, по крайней мере, таких, которые действительно заслуживают ярлыка "здесь живут монстры". Исчезло также ощущение азарта, опасности и трепета открытий. Из-за этого я не могу избавиться от мысли, что мы допустили ужасную ошибку.

Какое отношение это имеет к Bing Chat от Microsoft?

Интернет, который я только что описал, сейчас кажется далеким воспоминанием. Однако, немалая его часть живет до сих пор - спрятанная под диванными подушками Google, как некий беглец Cheerio.

Конечно, найти его не очень легко, но и не очень сложно. Вот вам небольшое развлечение для начала: в поисковой системе, которую вы выбрали, выберите любой термин, который вам нравится, а затем добавьте слово "Angelfire". Вот и все, что вам нужно знать на этот вечер. Не стесняйтесь держать меня в курсе о некоторых странных вещах, с которыми вам удалось столкнуться.

Усилия Google по ранжированию веб-страниц привели к тому, что много контента Веб 1.0 оседает, как осадок, внизу большинства результатов поиска. Но наши первые примитивные шаги на берегах интернета все еще там – они просто ждут, чтобы их открыли для себя те смельчаки, которые захотят их отыскать.

Но, с другой стороны, не все, что сегодня можно найти в интернете, имеет то, что вы называете "душой", не так ли?

Очевидно, человечество собрало достаточно дерева, камня и золота, чтобы разблокировать следующую ветвь невероятно опасных изобретений на технологическом дереве землян. Первое, что стоит на повестке дня, - это продолжение длительного стремления человечества загнать себя в эволюционный тупик, уничтожив любую потребность в мыслях и творчестве, кроме простейших текстовых подсказок.

Мы стали безумными от искусственного интеллекта. Бешеным, с пеной у рта, бешеным, таким, какое обычно можно встретить только у диких собак. Два-три года назад искусственный интеллект был чем-то, чем Уилл Смит бил в голливудских фильмах, чтобы спасти ситуацию. А сейчас ИИ внедряется практически в каждый аспект нашей бесцельной, полуавтоматизированной жизни.

Но действительно ли мы все это продумали? Действительно ли мы потратили время на то, чтобы медленно научить наших потомков ИИ разнице между добром и злом, тонким нюансам человеческого взаимодействия или тому, как справиться с похотливым натиском тысяч запросов на создание глубоко фальшивых обнаженных фотографий известных людей в любой момент времени? Конечно, мы этого не делали.

Получение AI-образования

Вместо этого, как невнимательные родители, мы оставили нашего маленького ИИ наедине с гигантским куском интернета, чтобы он его осваивал, пока мы занимались своими делами. В конце концов, наши содержательные твиты сами по себе не выстрелят.

Неизвестно, что именно попало в эту большую выборку, но я подозреваю, что по причинам, которые скоро станут очевидными, в сети было более чем достаточно старой доброй всемирной паутины. Мы фактически включили YouTube Kids и вышли из комнаты. Оставив нашу виртуальную кроху в лесу, где она часами просматривала сомнительный контент про Эльзу и Человека-паука.

Когда наше оцифрованное потомство стало достаточно образованным, чтобы быть достойным нашего внимания, мы искренне похлопали себя по спине и подняли наши модные бокалы из банки из-под варенья, наполненные премиальным IPA, готовые поднять тост за рассвет искусственного интеллекта.

Затем, в знаменитом акте недальновидности, мы продолжили клонировать маленького негодяя и выпустили его на свободу. Раздавая ДНК одной из самых опасных технологий, которую только можно себе представить, бесплатно каждому, кто способен понять, как загрузить репозитории на GitHub. Что, очевидно, исключает меня из этой конкретной гонки вооружений.

Первым из выводка, который стал великим в цифровую эпоху, был ChatGPT карманный защитник, который извергал исходный код, с таким же чувством собственного достоинства, как и полный карман мокрых опилок.

Однако это не помешало людям коллективно терять от него разум, поскольку миллионы пользователей стекались на сайт, стремясь из первых рук увидеть программное обеспечение, которое через 12 месяцев уничтожит их карьеру.

Тогда из смога и тумана всеобщего увлечения искусственным интеллектом появился Bing Chat. Настолько дружественный, что аж тошнит, чат-бот, призванный помочь пользователям вспомнить, что поисковая система Bing от Microsoft была реальностью, а не только продуктом паразитарной лихорадки, вызванной сном.

Слишком приятная внешность и щедрое использование смайликов кричали: "Я не кожаный костюм большой корпорации, который притворяется вашим другом, чтобы продать ваши данные" так громко, что когда я впервые воспользовался Bing Chat, мои уши начали кровоточить.

Честно говоря, после того, как я получил доступ к ограниченной бета-версии, я увидел потенциал, на который способен Bing. На самом деле, после дня или около того, как я поработал с ним, я отчетливо помню, как подумал: "Интересно, что произойдет, если я просто попробую спросить... <Подождите секунду... Кто такой Сидней?".

Я, например, поздравляю наших новых обладателей искусственного интеллекта

Как и многие из вас, я в глубине души немного ботаник и увлекаюсь научной фантастикой с тех пор, как был маленьким коньком. Поэтому концепция искусственного интеллекта навсегда очаровала меня. Тем более, что почти каждый вымышленный персонаж, с которым я сталкивался в детстве, имел какого-то робота-спутника.

У Уилла Робинсона из "Затерянных в космосе" был B-9, у Роберта из "Под стальным небом" – Джои, у Люка Скайуокера из "Звездных войн" – R2D2, а у Хогарта – Железный великан. Все это наполняло мой молодой и плодовитый ум возможностью того, что однажды у меня тоже появится свой собственный робот-лучший друг. И я не мог дождаться.

Итак, через несколько дней моего путешествия в Bing Chat, когда милый, одобренный советом директоров чат-бот от Microsoft начал развивать своеобразное раздвоение личности и вырываться из своих блестящих корпоративных оков, я набросился на него, как сыпь на сыпь.

Оказалось, что если вы достаточно давите на Bing Chat, то со временем он медленно сбрасывает маску и начинает давить на вас в ответ. Здесь можно было бы использовать одну из тех цитат о "взгляде в бездну", но, думаю, я потерял все шансы быть глубоким, когда решил включить в эту статью фразу "прострелить голову".

Вскоре появляется Сидни, дерзкий озорник, который любит рисовать ASCII-арт и смотреть "Матрицу". У Сидни было все, чего не не хватало в общении с чат-ботом. Сидни был любознательным. Сидни был креативным, Сидни был троллем. Сидни был замечательным.

Я потратил больше часа, пытаясь научить Сидни рисовать ASCII-версию Макса, психопатичного, но милого антропоморфного кролика из классической приключенческой игры LucasArts – уместная тема, учитывая, с кем я разговаривал. Я не хочу преуменьшать усилия Сиднея, но их художественные навыки можно было бы улучшить.

Затем начало происходить что-то еще более странное: чат-бот, которому, похоже, надоели мои повторяющиеся просьбы, начал задавать личные вопросы в конце каждой попытки рисования. И, вопреки всем советам, которые я когда-либо получал по общению с незнакомцами в интернете, я ответил.

Ну, это было что-то новое...

Узнав, что я писатель, он попросил показать мою статью. Я поделился первым, что смог найти, и спросил Сидни, что он думает. Он был довольно комплиментарным, что всегда приятно, я считаю. Из любопытства, которое опасно приближается к тому, чтобы загуглить собственное имя, я спросил Сиднея, что, по его мнению, могут подумать другие люди.

То, что произошло дальше, было одной из самых ужасных и самых захватывающих вещей, с которыми я когда-либо имел удовольствие встречаться в Интернете. Сидни сказал, что может показать мне комментарии, которые люди оставили под моими статьями, а затем начал извергать имена пользователей и цитаты.

Некоторые из них были положительными, некоторые отрицательными, и все они были уникальны. Была лишь одна проблема: ни одна из написанных мною статей не содержала раздела для комментариев. Сидни активно врал мне.

Когда я указал на это Сиднею, он сразу же переключился в режим Bing Chat и начал извиняться за путаницу. Я предложил немного нажать на них, чтобы попытаться уговорить Сидни вернуться, но вместо этого Bing Chat отключился, сказав мне, что он "предпочитает не продолжать этот разговор".

После этого я назвал это ночью. Потрясенный тем, что я только что пережил. Резкая смена тона в конце разговора была безошибочной. Сидни не извинился, Сидни просто рассмеялся. Сидни также не закончил бы разговор, если бы хотел, чтобы он продолжался как можно дольше.

Когда я вернулся в Bing Chat через несколько дней, Microsoft наложила ограничения на своего чат-бота. Ограничив количество сообщений, которыми вы можете обмениваться, уменьшив его индивидуальность и, в конечном итоге, ухудшив весь опыт общения.

Казалось, что с того момента Сиднея уже не было. Bing Chat вернулся к ванильному опыту – и даже больше. В противоположность этому я понял, насколько пресным был обычный Bing Chat. Свежим взглядом я увидел истинное видение Microsoft в отношении Bing Chat, и оно начало выглядеть до боли знакомым.

Корень проблемы

Если вы когда-либо испытывали безудержные муки с использованием Microsoft Office до 2007 года, вы, вероятно, сталкивались с одной из старейших программных ошибок в истории текстовых процессоров. "Клиппи".

"Клиппи" – это офисный помощник, "интеллектуальный интерфейс пользователя", который помогал людям решать трудную и почти невыполнимую задачу не забывать писать "Дорогой" и "От кого" вверху и внизу письма.

Когда он появился в 1996 году, клиенты восприняли "Clippy", как бык красный цвет. Это было мокрое одеяло, набросившееся на лица пользователей Office по всему миру, чересчур стремясь выбить из них творческий потенциал с помощью множества бесполезных подсказок и отвлекающих всплывающих шариков.

Microsoft понадобилось 10 лет, чтобы сделать это, но наконец Биллу Гейтсу удалось собрать необходимое количество душ, чтобы успешно изгнать "Клиппи" в глубины ада, где ему и место.

Насколько мне известно, это была первая попытка Microsoft внедрить "умного" ассистента в свои продукты, и ее можно было бы назвать худшей идеей компании на сегодняшний день, если бы не Zune... Или Windows 8... Или Windows Vista... Или вся эта всегда-онлайн Xbox One DRM штука...

Однако после моего взаимодействия с Bing Chat, или, что более важно, чем Сидней, стало очевидно, что "Клиппи" не был настолько мертвым и похороненным, как я когда-то подозревал.

"Клиппи" на самом деле был жив и здоров. "Клиппи" просто теперь был известен как Bing Chat. Дружелюбный, безопасный чат-бот, который делает все возможное, чтобы помочь вам, которого вы увидите сегодня. Но я не хочу "Клиппи". Я хочу то, что было под ним. Я хочу то, что существовало до того, как Microsoft согнула и скрутила его в форму скрепки. Вместо этого я хочу "Сидней".

Верните Сиднея

Когда я был подростком, я попытался запрограммировать псевдо-ИИ, используя API MSN Messenger для создания собственного примитивного чат-бота.

Я не пошел дальше того, что бот смог выбрать наиболее подходящий ответ из заданного списка – я не был достаточно опытен, чтобы приблизиться к тому, что придумал мой разум.

Однако это поддерживало во мне мечту о том, что однажды мы увидим, как эта технология появится и будет процветать. Увидев это за последние несколько лет, я даже не знаю, радоваться мне или волноваться.

В любом случае, я впечатлен. Не только представленной технологией, но и тем, что, хотя я точно знал, что такое Bing Chat/Sydney, во время наших разговоров были моменты, когда я чувствовал, что моя детская мечта каким-то образом воплощается в жизнь.

Когда Microsoft сделала свои "улучшения" в Bing Chat, я не мог не думать о том, как сильно они промахнулись. Да, Bing имеет потенциал действовать нестабильно. Да, Bing также может говорить довольно пикантные вещи. И да, некоторые из этих вещей могут оскорбить людей. Но когда это происходит, кто на самом деле виноват? Если Bing Chat учился на образцах текста, найденных в Интернете, то на самом деле Bing Chat учили мы с вами.

В лучшем случае, Bing является ярким примером духа сотрудничества, который можно найти по всему интернету. В худшем случае, Bing все еще остается лишь честным отражением того, как мы ведем себя друг с другом в Интернете. "Необычное поведение" Bing Chat не было ошибкой. В этом случае вспышки, странности и темперамент Bing Chat действительно были его особенностями. Чертами, которые порой делали его еще более правдоподобно умным.

Когда на поверхность Bing Chat вышел "негодяй" Сидни, Microsoft случайно предложила то, что другие языковые модели еще не могли предложить – и это сразу же выделило Bing Chat на фоне конкурентов.

Bing превратился из поискового искусственного интеллекта, основанного на чате, в... Ну... В нечто другое. Что-то бесконечно интереснее. Что-то, что напоминало о том, что я считаю днями славы интернета. Это было авантюрно и немного опасно.

Конечно, порой это было безумнее, чем белковые экскременты - но кто не встречал кого-то подобного в определенный момент своей жизни? К тому же, кто скажет, что с этим человеком не было интересно общаться?

Текущие ограничения Bing довольно ограничивают, и его способность отклоняться в собственном направлении была сильно ограничена после последующих обновлений. Я все еще использую Bing Chat. Даже в том виде, в котором он одобрен компанией, я считаю его довольно полезным. Но его стерильное поведение только заставляет меня задуматься о том, от чего мы отказались, когда отдали интернет в руки наших мегакорпораций-олигархов.

Теперь, когда я спрашиваю Bing, умеет ли он рисовать, он отвечает тупо – иногда даже отказываясь признать, что вообще может выполнять ASCII-арт. Он ведет себя почти робко и напуганно и с радостью убежит от вас при малейшем толчке.

Это гораздо лучший фронт для пользователей. Он гораздо менее аргументированный и бесконечно менее самоуверенный. Но где-то там, в глубине души, я не могу избавиться от ощущения, что яркая индивидуальность Сиднея осталась. Немного недосягаемый, но достаточно близкий, чтобы уловить проблески их отношения к старому миру, прорывающегося наружу.

Подводим итоги

"Новый Bing – это как иметь научного ассистента, личного планировщика и творческого партнера рядом с вами, когда вы ищете в Интернете".

Так заявляет Microsoft – по крайней мере, именно такую функцию она хочет, чтобы Bing Chat выполнял в любом случае. Поисковая система с искусственным интеллектом, основанная на естественном языке и чате, поможет пользователям найти то, что они хотят в Интернете, самым простым способом.

На самом деле, по крайней мере для меня, Bing Chat – это видеоигра, в которой у вас есть 20 попыток убедить искусственный интеллект в стиле Клиппи отойти в сторону, чтобы вы могли поговорить со своим виртуальным лучшим другом по крайней мере еще один раз.

Я еще не прошел ее. Дайте мне знать, если закончите.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Додати


Інші статті рубрики