Реєстрація
Створити статтю

ІТ-директор Університету Фенікса каже, що чат-боти можуть загрожувати інноваціям

Эта статья доступна на русском языке
ai

Команда інженерів ІТ-директора Джеймі Сміта розробляє модель виведення навичок за допомогою технології генеративного штучного інтелекту. Але він також стурбований тим, що якщо чат-ботам дозволять замінити ІТ-працівників, оригінальність помре.

Поява штучного інтелекту (ШІ) відкрила двері до безмежних можливостей у сотнях галузей, але конфіденційність продовжує викликати величезне занепокоєння. Використання даних для створення інструментів штучного інтелекту може ненавмисно призвести до розкриття конфіденційної та особистої інформації.

Чат-боти, створені на основі великих мовних моделей (LLM), таких як GPT-4, мають величезні перспективи скоротити час, який працівники сфери знань витрачають на узагальнення стенограм зустрічей і онлайн-чатів, створення презентацій і кампаній, аналіз даних і навіть компіляцію коду. Але технологія ще далеко не повністю перевірена.

Оскільки інструменти штучного інтелекту продовжують розвиватися і набувати все більшого визнання – не лише в програмах, орієнтованих на споживача, таких як пошукові системи Bing від Microsoft і Bard від Google, – зростає занепокоєння щодо конфіденційності та оригінальності даних.

Коли LLM стануть більш стандартизованими, і все більше компаній використовуватимуть однакові алгоритми, чи не зменшиться оригінальність ідей?

Джеймі Сміт, директор з інформаційних технологій Університету Фенікса, має пристрасть до створення високоефективних цифрових команд. Він розпочав свою кар'єру як засновник ранньої інтернет-консалтингової фірми, і з тих пір шукає шляхи застосування технологій для вирішення бізнес-завдань.

Наразі Сміт здобуває ступінь магістра права, щоб розробити механізм виведення навичок на основі генеративного ШІ. Але оскільки генеративний ШІ стає все більш поширеним, Сміт також стурбований конфіденційністю отриманих даних і тим, як використання однієї і тієї ж моделі ШІ безліччю організацій може вплинути на оригінальність, яка притаманна лише людині.

Що не дає вам спати ночами? 

"Мені важко уявити, як все це [генеративний ШІ] доповнить, а не замінить усіх наших інженерів. Зараз наші інженери – дивовижні машини для вирішення проблем – забудьте про кодування. Ми дозволили їм думати про проблеми студентів у першу чергу, а про проблеми кодування – у другу.

"Я сподіваюся, що [генеративний ШІ] стане для інженерів чимось на кшталт біоніки, що дозволить їм більше часу зосереджуватися на проблемах студентів і менше думати про те, як скомпілювати свій код. Друга річ, і це менш оптимістичний погляд, полягає в тому, що інженери стануть менш залученими в процес, і, в свою чергу, ми отримаємо щось швидке, але без душі. Я боюся, що якщо всі будуть використовувати однакові моделі, звідки візьмуться інновації? Де та частина чудової ідеї, якщо ви перенесли її на комп'ютери?

"Отже, це інь та янь того, як я бачу це питання. І як споживач, етичні міркування якого дійсно починають посилюватися, оскільки ми більше покладаємося на моделі чорних скриньок, які насправді не розуміємо, як вони працюють".

Як інструменти штучного інтелекту можуть ненавмисно розкрити конфіденційні дані та приватну інформацію? "Генеративний ШІ працює, поглинаючи великі масиви даних, а потім будуючи висновки або припущення на основі цих наборів даних.

"Була відома історія, коли компанія Target почала надсилати речі доньці-підлітку одного хлопця, яка на той момент була вагітною, і це сталося до того, як він про це дізнався. Вона тоді була в старшій школі. Тож він прийшов до Target дуже розлючений. Модель знала про вагітність доньки раніше за батька.

"Це один із прикладів виведення або розкриття даних. Інше просте питання – наскільки безпечними є дані, які потрапляють в систему? Які є можливості для того, щоб вони вийшли назовні в несанкціонований спосіб, що ненавмисно розкриє такі речі, як інформацію про здоров'я. Особиста інформація про здоров'я, якщо її не очистити належним чином, може потрапити туди ненавмисно. Я думаю, що є більш тонкі проблеми, які мене турбують трохи більше.

"Там, де розташований Університет Фенікса, знаходяться автомобілі Waymo. Якщо врахувати кількість датчиків на цих автомобілях і всі ці дані, що надходять до Google. Вони можуть запропонувати такі речі, як: "Гей, вони можуть зчитувати номерні знаки. Я бачу, що ваша машина припаркована біля будинку з 17:00 до 19:00. Це вдалий час, щоб зв'язатися з вами". З усіма цими мільярдами датчиків, підключених [до хмар штучного інтелекту], є кілька нюансів, які ми можемо не вважати надприватними даними, але які розкривають дані, що можуть потрапити туди".

Prompt Engineering

Промпт інжиніринг – це навичка, що тільки зароджується і набуває все більшої популярності. У міру того, як генеративний ШІ розвивається і поглинає галузеві або навіть корпоративні дані для створення LLM, чи бачите ви зростаючу загрозу для конфіденційності даних? "По-перше, чи очікую я, що промпт-інженерія як навичка зростатиме? Так. У цьому немає жодних сумнівів. На мою думку, інженерія – це кодування, а навчання цих моделей ШІ за допомогою швидкого інжинірингу – це майже як виховання дітей. Ви намагаєтеся заохотити результат, продовжуючи вдосконалювати те, як ви ставите їй запитання, і дійсно допомагаєте моделі зрозуміти, що таке хороший результат. Отже, це схоже, але досить різний набір навичок. Буде цікаво подивитися, скільки інженерів зможуть перетнути цю прірву, щоб дістатися до швидкого інжинірингу.

"Що стосується конфіденційності, ми інвестували в компанію, яка займається корпоративним висновком навичок. Вона бере дещо з того, що ви робите у своїх робочих системах, будь то система управління навчанням, електронна пошта, на кого ви працюєте і з чим ви працюєте, і робить висновки про навички та рівні кваліфікації, які можуть вам знадобитися.

"Через це нам довелося реалізувати це в єдиній моделі орендаря. Отже, ми створили нового орендаря для кожної компанії з базовою моделлю, а потім їхніми навчальними даними, і ми тримаємо їхні навчальні дані якнайменше часу, щоб навчити модель, а потім очищаємо її та надсилаємо їм назад. Я б не назвав це найкращою практикою. Це складна річ для масштабування, але ви потрапляєте в ситуації, коли деякі засоби контролю ще не існують для забезпечення конфіденційності, тому вам доводиться робити такі речі.

"Інша річ, яку я бачив, як компанії починають робити, – це вводити шум у дані, щоб очистити їх таким чином, щоб ви не могли дійти до індивідуальних прогнозів. Але завжди існує баланс між тим, скільки шуму ви вносите, і тим, наскільки це зменшить результат з точки зору передбачення моделі.

"Зараз ми намагаємося з'ясувати, який наш найкращий невдалий вибір для забезпечення конфіденційності в цих моделях, тому що анонімізація не є ідеальною. Особливо, коли ми переходимо до зображень, відео, голосу та інших речей, які є набагато складнішими, ніж просто чисті дані та слова, ці речі можуть прослизнути крізь щілини".

Кожна велика мовна модель має свій набір API для доступу до неї для швидкої розробки – чи вірите ви, що в якийсь момент все стандартизується?

 "Є багато компаній, які були побудовані на базі GPT-3. Отже, вони, по суті, робили API простішим у використанні, а підказки – більш узгодженими. Я думаю, що Jasper був одним з тих кількох стартапів, які зробили це. Тож очевидно, що в цьому є потреба. По мірі того, як вони виходять за рамки великих мовних моделей і переходять до зображень і звуку, виникає потреба в стандартизації.

"Зараз це схоже на темне мистецтво швидка інженерія ближча до чаклунства, ніж до інженерії. З'являються кращі практики, але це все одно є проблемою, оскільки існує багато [унікальних] моделей машинного навчання. Наприклад, у нас є модель машинного навчання, яка розсилає SMS-повідомлення для підтримки наших потенційних клієнтів, але у нас також є чат-бот, який також займається підтримкою потенційних клієнтів. Нам довелося навчати обидві ці моделі окремо.

"Тож [має бути] не лише підказка, а й більша послідовність у навчанні та те, як ви можете послідовно тренувати наміри. Потрібні стандарти. Інакше все буде занадто заплутано.

"Це як мати купу дітей. Вам доводиться викладати кожному з них один і той самий урок, але в різний час, і іноді вони поводяться не дуже добре.

"Це інша частина проблеми. Це те, що мене теж лякає. Я ще не знаю, що це екзистенційна загроза – знаєте, як кінець світу, апокаліпсис, Скайнет вже тут. Але це дійсно змінить нашу економіку, роботу зі знаннями. Він змінює речі швидше, ніж ми можемо до них адаптуватися".

Це ваш перший досвід використання великих мовних моделей? 

"Це моя перша спроба використовувати великі мовні моделі, які не були навчені на основі наших даних – тож, яка користь від цього, якщо у вас мільйон випускників і петабайти й петабайти цифрових вихлопів за ці роки?

"Отже, ми маємо дивовижну модель підштовхування, яка допомагає студентам у просуванні, якщо у них виникають проблеми з певним курсом; вона пропонує конкретні підказки. Це все великі мовні моделі, але все це було розроблено на основі даних UoP. Отже, це наші перші набіги на магістерські програми, де навчання вже відбулося, і ми покладаємося на чужі дані. Ось тут стає трохи не так комфортно".

Яку модель виведення навичок ви використовуєте?

"Наша модель виведення навичок є власною розробкою компанії EmPath, в яку ми є інвесторами. Крім EmPath, є ще кілька компаній, наприклад, Eightfold.ai, які роблять дуже схожі моделі виведення навичок".

Як працює виведення навичок? 

"Частково це виходить з вашої системи управління персоналом, і якщо ви маєте сертифікати, які ви можете отримати. Проблема, з якою ми зіткнулися, полягає в тому, що ніхто не хоче йти і підтримувати профіль навичок вручну в актуальному стані. Ми намагаємося відкритися для систем, які ви постійно використовуєте. Тобто, якщо ви переписуєтесь електронною поштою туди-сюди і перевіряєте код з точки зору інженерів – або на основі вашої посади, оцінки роботи – будь-який цифровий вихлоп, який ми можемо отримати, який не вимагає, щоб хтось виходив на вулицю. Потім ви тренуєте модель, а потім люди виходять і перевіряють модель, щоб переконатися, що їхня оцінка є точною. Потім ви використовуєте її і продовжуєте ітерації".

Тобто це велика мовна модель, як GPT-4?  

"Так. Що будуть добре робити chatGPT і GPT-4, так це обробляти природну мову, виводити таксономію навичок на основі того, що ви вже зробили, і мати можливість тренувати її. GPT-4 здебільшого зішкріб [всі необхідні дані]. Однією з найскладніших речей для нас є вибір. Чи обрати таксономію навичок IBM? Чи обрати таксономію MC1? Перевага великих мовних моделей, таких як GPT-4, полягає в тому, що в них зібрані всі дані, і вони можуть надавати інформацію в будь-який спосіб, який вам потрібен. Це було дуже корисно".

Отже, це інструмент для підбору персоналу чи інструмент для підвищення кваліфікації та перепідготовки наявної робочої сили? 

"Це не зовсім інструмент для підбору персоналу, тому що є багато платформ для відстеження кандидатів. Ми використовуємо його для внутрішнього розвитку навичок у компаніях. І ми також використовуємо його для побудови команди. Тобто, якщо вам потрібно зібрати команду у великій організації, це означає, що ви знайдете всіх людей з потрібним профілем навичок. Це платформа, розроблена для цілеспрямованого навчання та підвищення кваліфікації – або для перекваліфікації та підвищення кваліфікації ваших існуючих співробітників.

"Найцікавіше те, що, допомагаючи, штучний інтелект водночас заважає тим самим працівникам і вимагає від них перекваліфікації. Це спричиняє порушення і допомагає вирішити проблему".

Ви використовуєте цю технологію виведення навичок всередині компанії чи для клієнтів? 

"Зараз ми впроваджуємо її на більшій платформі. Тож ми все ще перебуваємо на початковій стадії з кількома альфа-реалізаціями. Ми фактично реалізували його самі. Це як їсти власне філе-міньйон.

"У нас 3500 співробітників, і ми самі пройшли через впровадження, щоб переконатися, що це працює. Знову ж таки, я думаю, що це буде одна з тих галузей, де чим більше даних ви можете надати системі, тим краще вона працюватиме. Найскладніше, з чим я зіткнувся, - це те, що набори даних недосконалі; вони настільки хороші, наскільки хороші дані, якими ви їх годуєте, поки ми не зможемо підключити туди більше шуму і отримати цифровий вихлоп. Це все одно набагато краще, ніж починати з нуля. Ми також робимо багато оцінок. У нас є інструмент під назвою Flo, який аналізує вхідні та вихідні дані запропонованого коду для навчання. Це один із наборів інструментів, які ми використовуємо для перекваліфікації працівників.

"У цьому випадку, ймовірно, там менше приватних даних на індивідуальній основі, але, знову ж таки, через те, що компанія бачить це як власність з точки зору подачі інформації [з HR та інших систем], нам довелося перетворити це на щось на кшталт саду, обнесеного стіною".

Як довго проект знаходиться в розробці? 

"Ми почали його, мабуть, шість-вісім місяців тому, і ми очікуємо, що він запрацює в наступному кварталі – принаймні, для першого альфа-клієнта. Знову ж таки, ми вчимося на власному досвіді, тому сьогодні доступні лише невеликі фрагменти. Інша річ, що крім Університету Фенікса є багато інших навчальних програм. Тож перше, що нам довелося зробити, це скласти карту кожного курсу, який ми мали, і вирішити, які навички формуються на цих курсах, а також отримати підтвердження для кожної з цих навичок. Тож це була велика частина процесу, яка, чесно кажучи, навіть не пов'язана з технологіями. Це вирівнювання гайок і болтів. Ви не хочете, щоб в одному курсі було 15 навичок. Це мають бути навички, яких ви дійсно навчитеся на будь-якому курсі.

"Це частина нашого загального переосмислення себе. Диплом важливий, але ваш результат – це те, що ви зможете отримати наступну роботу за найкоротший проміжок часу, наскільки це можливо. Отже, ця загальна платформа допоможе зробити це в межах компанії. Я думаю, що часто, якщо вам бракує якоїсь навички, перше бажання – піти і найняти когось, а не перекваліфікувати вже наявного працівника, який вже розуміє культуру компанії та має досвід роботи в ній. Тож ми намагаємося зробити це простим рішенням.

"Це буде те, над чим ми працюємо для наших бізнес-клієнтів. Отже, ми будемо впроваджувати це для них. Зараз у нас понад 500 бізнес-клієнтів, але це більше схоже на пільги на навчання, коли ваш роботодавець сплачує частину вартості навчання.

"Йдеться про те, як поглибити наші відносини з цими компаніями і допомогти їм вирішити цю проблему. Тож ми проводили інтерв'ю з керівниками програм та іншими керівниками, намагаючись зробити те, що ми робимо, більш придатним для їхніх потреб.

"Ей, як ІТ-директор, я сам стикаюся з цією проблемою. Війна за таланти реальна, і ми не можемо купити достатньо талантів за нинішньої гонки озброєнь за зарплати. Отже, ми повинні підвищувати кваліфікацію та перекваліфіковуватися якомога більше зсередини".

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Додати


Інші статті рубрики