В один обычный день 93-летняя американка услышала тревожный телефонный звонок. Голос внучки сообщил об аварии, назвав место больницы. Девушка, которая находилась рядом, быстро поняла: этот голос ненастоящий. Таких историй становится все больше, ведь искусственный интеллект научился почти в совершенстве имитировать человеческие голоса и лица.
Технологии дипфейков, то есть искусственно созданных видео и аудио, стали любимым инструментом мошенников. Британское исследование показало, что только 0,1% людей в Великобритании и США способны распознать дипфейк на видео или фото. Ранее для копирования голоса нужно было записывать человека около 20 часов. Теперь же достаточно пяти секунд аудио, чтобы создать убедительный фейк.
"Живые" технологии против искусственных голосов
Intel разработала программу FakeCatcher, которая анализирует изменения цвета кровеносных сосудов на лицах людей, отличая реальные видео от искусственных. Компания Pindrop Security, в свою очередь, создала технологию, которая анализирует особенности голоса каждую секунду, выявляя подделки.
Проблема фейков стала серьезнее с активным переходом компаний на дистанционную работу. Известен случай в Гонконге: работника международной компании обманули киберпреступники, которые с помощью искусственных аватаров коллег убедили перевести 26 миллионов долларов.
Эксперты считают, что со временем программы для определения дипфейков станут такими же распространенными, как спам-фильтры в электронной почте. Китайский производитель смартфонов Honor уже представил модель со встроенной функцией обнаружения фейков. В то же время британский браузер Surf Security научился определять поддельные голос и видео прямо во время просмотра.
Пока технологические компании совершенствуют защитные механизмы, дипфейки остаются серьезной угрозой не только для бизнеса, но и для обычных людей. Пока мы не научились эффективно противостоять таким подделкам, поэтому бдительность остается нашим главным оружием.
Источник: Tech Xplore











