У зв'язку з останнім інцидентом, пов'язаним із витоком конфіденційної інформації внаслідок використання чат-бота, Samsung ввела тимчасову заборону на використання сервісів на базі генеративного штучного інтелекту, включно з ChatGPT, на офіційних пристроях співробітників. Незважаючи на те, що заборона стосується тільки службових пристроїв, керівництво компанії сильно рекомендує не використовувати сервіси на основі генеративного ШІ і на приватних пристроях.
Рекомендуємо прочитати: 7 нейромереж для програмістів: як писати код швидше і краще
Важливо розуміти, що інцидент, пов'язаний з ChatGPT, був спричинений не самим чат-ботом, а нехлюйством одного співробітника компанії і його недотриманням правил безпеки. Усіх подробиць немає, але кажуть, що він надіслав конфіденційні дані в листуванні з ботом ChatGPT – вихідні коди якогось програмного забезпечення.
Паралельно із забороною подібних сервісів, Samsung вирішила вдосконалити свої власні. За даними ЗМІ, компанія працює над розробкою свого власного чат-бота, який буде безпечний для роботи з конфіденційною інформацією.
Цілком очевидно, що Samsung дає високу оцінку захисту своїх ділових секретів і персональних даних співробітників, і заслуговує на похвалу за своєчасну і відповідальну реакцію на цей інцидент. Компанія переконана, що правильну і безпечну роботу з конфіденційною інформацією можна забезпечити тільки в рамках своїх власних технологічних рішень, і робить все, щоб підтримувати високий рівень безпеки для своїх клієнтів і співробітників.











