Американські та китайські фахівці у сфері штучного інтелекту провели низку закритих зустрічей, аби обговорити потенційні загрози від новітніх технологій. За даними видання Financial Times, у липні та жовтні минулого року відбулися дві наради за участі провідних компаній США у галузі ШІ –OpenAI, Anthropic і Cohere, а також китайських експертів з Університету Цінхуа.
Ініціатором діалогу виступила консалтингова фірма Shaikh Group. Метою зустрічей було обговорення спільних зусиль щодо розробки безпечних стандартів для ШІ та запобігання використанню алгоритмів для поширення фейків чи підриву суспільної стабільності.
Пошук спільної мови на тлі суперництва
Неофіційний діалог між американськими та китайськими фахівцями є несподіваним прикладом співпраці на тлі гострого технологічного суперництва між двома наддержавами. Втім, усвідомлення спільних викликів у сфері ШІ, схоже, змусило сторони шукати порозуміння.
За словами інсайдерів Financial Times, головною метою зустрічей було знайти безпечний шлях для розвитку складних технологій ШІ. Адже вироблення єдиних стандартів у цій галузі потребує консенсусу ключових гравців.
Про проведення перемовин знали уряди США, Китаю та Британії. Подальший розвиток подій покаже, чи вдасться досягти прогресу у забезпеченні безпеки штучного інтелекту. Адже помилки тут можуть мати фатальні наслідки для всього людства.
Небезпечні алгоритми: чим загрожує штучний інтелект
Хоча штучний інтелект відкриває фантастичні можливості для людства, його хибне застосування несе реальні загрози. Зокрема, ШІ може бути використаний для:
- Поширення фейкових новин та маніпуляцій суспільною думкою;
- Порушення приватності та крадіжки персональних даних;
- Вироблення автономної зброї, що діє поза людським контролем;
- Дискримінаційних рішень на основі упереджених алгоритмів.
Тож розробка спільних етичних норм для ШІ є нагальною потребою, аби уникнути небезпечних наслідків у майбутньому. І саме тут потрібен глобальний консенсус головних технологічних гравців.











