Одного звичайного дня 93-річна американка почула тривожний телефонний дзвінок. Голос онуки повідомив про аварію, назвавши місце лікарні. Дівчина, яка перебувала поруч, швидко зрозуміла: цей голос несправжній. Таких історій стає дедалі більше, адже штучний інтелект навчився майже досконало імітувати людські голоси й обличчя.
Технології дипфейків, тобто штучно створених відео та аудіо, стали улюбленим інструментом шахраїв. Британське дослідження показало, що лише 0,1 % людей у Великій Британії та США здатні розпізнати дипфейк на відео чи фото. Раніше для копіювання голосу потрібно було записувати людину близько 20 годин. Тепер же достатньо п'яти секунд аудіо, щоб створити переконливий фейк.
"Живі" технології проти штучних голосів
Intel розробила програму FakeCatcher, яка аналізує зміни кольору кровоносних судин на обличчях людей, відрізняючи реальні відео від штучних. Компанія Pindrop Security, у свою чергу, створила технологію, яка аналізує особливості голосу щосекунди, виявляючи підробки.
Проблема фейків стала серйознішою з активним переходом компаній на дистанційну роботу. Відомий випадок у Гонконгу: працівника міжнародної компанії обманули кіберзлочинці, які за допомогою штучних аватарів колег переконали переказати 26 мільйонів доларів.
Експерти вважають, що згодом програми для визначення дипфейків стануть такими ж поширеними, як спам-фільтри в електронній пошті. Китайський виробник смартфонів Honor уже представив модель із вбудованою функцією виявлення фейків. Водночас британський браузер Surf Security навчився визначати підроблені голос та відео прямо під час перегляду.
Доки технологічні компанії удосконалюють захисні механізми, дипфейки залишаються серйозною загрозою не лише для бізнесу, а й для звичайних людей. Поки що ми не навчилися ефективно протистояти таким підробкам, тож пильність залишається нашою головною зброєю.
Джерело: Tech Xplore











