Нейросети способны подделывать голос и видео - отличить оригинал от дипфейка становится все сложнее

Танцующая королева разорвала интернет в 2020 году. Альтернативное поздравление от монаршей особы собрало в совокупности более 100 млн просмотров.  Вау-эффект от увиденного вызывал у пользователей непреодолимое желание поделиться увиденным с родственниками и друзьями. При этом создатели дипфейка сделали работу достаточно небрежно, все понимали, что перед ними подделка. В этом и заключалась задумка авторов - продемонстрировать возможность современных технологий в создании дипфейков. Впервые о дипфейках заговорили еще в 2017 году. Любители контента с пометкой 18+ использовали нейросеть для изменения внешности актеров в порнороликах на лица голливудских звезд. Развитие технологий позволило минимизировать участие человека в этом процессе. Теперь любой пользователь, даже с одной свободной рукой, может создавать подобный контент. Пока специфическое творчество было направлено на удовлетворение индивидуальных потребностей, оно не несло никаких проблем, кроме кровавых мозолей. Сегодня ІТ-аналитики уверены: технология дипфейк может стать самой опасной в цифровой сфере за последние десятилетия. Фактически с ее помощью можно полностью уничтожить имидж любого политика, формируя абсурдные заявления, которые в реальности он не делал. Дипфейки уже активно используют в российско-украинском конфликте. Недавно интернет облетело фейковое обращение Владимира Путина. С каждым разом отличить оригинал от дипфейка становится все сложнее. Только всматриваясь в качественную подделку, можно невербально заподозрить вмешательство по отдельным фрагментам мимики. Вот только уделить время этому процессу, как правило, не позволяет тот самый вау-эффект. Переполняющие эмоции требуют незамедлительно поделиться увиденным. Так произошло и с фейковым обращением Залужного, которое завирусилось на просторах украинского интернета. Смотрите программу "Тренды" ЗДЕСЬ Нейросети способны подделывать не только визуальный контент. Машинное обучение позволило достичь практически идентичных голосовых интонаций. Отличить услышанную подделку порой не способны даже близкие люди. Технология активно используется телефонными мошенниками для выманивания денег у родственников под предлогом экстренной ситуации, на которую необходимы непредвиденные траты. Представители CNN провели эксперимент, в ходе которого мама журналиста отвечала на сгенерированные фразы, звучащие голосом сына. "Тебе не кажется, что мой голос звучит немного по-другому?" - в итоге был задан вопрос. Мама ответила, что заметила, что голос звучит как-то по-американски. "На самом деле это не я,  - сказал голос сына. - Это голос, созданный компьютером". "Боже мой, ты серьезно?!" - воскликнула женщина. Нейросети с массовым публичным доступом способны на гораздо более технологичные дипфейки. При создании подделки можно переводить голос на иностранные языки с сохранением оригинального произношения. Объектом для своеобразной атаки стал и  Александр Лукашенко, о чем Президент Беларуси рассказал на встрече с молодежью. Эпоха постправды стала частью пространства, где каждый из нас порой проводит внушительный отрезок своего дня. Важно помнить, что если публикация вызывает у вас вау-эффект, а эмоции начинают переполнять, скорее всего, вами манипулируют. Читайте также: Английский стал официальным языком Украины Даже 10 лет спустя жизнь украинского политика под угрозой - кому он так опасен Какая хитрость помогла определить, откуда шли деньги на финансирование Майдана - рассказал экс-нардеп Украины  
22.11.2023 22:30

Танцующая королева разорвала интернет в 2020 году. Альтернативное поздравление от монаршей особы собрало в совокупности более 100 млн просмотров.  Вау-эффект от увиденного вызывал у пользователей непреодолимое желание поделиться увиденным с родственниками и друзьями. При этом создатели дипфейка сделали работу достаточно небрежно, все понимали, что перед ними подделка. В этом и заключалась задумка авторов - продемонстрировать возможность современных технологий в создании дипфейков. Впервые о дипфейках заговорили еще в 2017 году. Любители контента с пометкой 18+ использовали нейросеть для изменения внешности актеров в порнороликах на лица голливудских звезд. Развитие технологий позволило минимизировать участие человека в этом процессе. Теперь любой пользователь, даже с одной свободной рукой, может создавать подобный контент. Пока специфическое творчество было направлено на удовлетворение индивидуальных потребностей, оно не несло никаких проблем, кроме кровавых мозолей. Сегодня ІТ-аналитики уверены: технология дипфейк может стать самой опасной в цифровой сфере за последние десятилетия. Фактически с ее помощью можно полностью уничтожить имидж любого политика, формируя абсурдные заявления, которые в реальности он не делал. Дипфейки уже активно используют в российско-украинском конфликте. Недавно интернет облетело фейковое обращение Владимира Путина.

С каждым разом отличить оригинал от дипфейка становится все сложнее. Только всматриваясь в качественную подделку, можно невербально заподозрить вмешательство по отдельным фрагментам мимики. Вот только уделить время этому процессу, как правило, не позволяет тот самый вау-эффект. Переполняющие эмоции требуют незамедлительно поделиться увиденным. Так произошло и с фейковым обращением Залужного, которое завирусилось на просторах украинского интернета.


Смотрите программу "Тренды" ЗДЕСЬ


Нейросети способны подделывать не только визуальный контент. Машинное обучение позволило достичь практически идентичных голосовых интонаций. Отличить услышанную подделку порой не способны даже близкие люди. Технология активно используется телефонными мошенниками для выманивания денег у родственников под предлогом экстренной ситуации, на которую необходимы непредвиденные траты. Представители CNN провели эксперимент, в ходе которого мама журналиста отвечала на сгенерированные фразы, звучащие голосом сына.

"Тебе не кажется, что мой голос звучит немного по-другому?" - в итоге был задан вопрос. Мама ответила, что заметила, что голос звучит как-то по-американски.

"На самом деле это не я,  - сказал голос сына. - Это голос, созданный компьютером".

"Боже мой, ты серьезно?!" - воскликнула женщина.

Нейросети с массовым публичным доступом способны на гораздо более технологичные дипфейки. При создании подделки можно переводить голос на иностранные языки с сохранением оригинального произношения. Объектом для своеобразной атаки стал и  Александр Лукашенко, о чем Президент Беларуси рассказал на встрече с молодежью.

Эпоха постправды стала частью пространства, где каждый из нас порой проводит внушительный отрезок своего дня. Важно помнить, что если публикация вызывает у вас вау-эффект, а эмоции начинают переполнять, скорее всего, вами манипулируют.


Читайте также:

 




Подписывайтесь на канал "Беларусь 1" в Яндекс.Дзен


Будьте в курсе актуальных событий с Телеграм-каналом ATN-NEWS


Читайте также:


Интересное в сети


Предложи новость


*2+3 =


(Максимум символов: 3000)
Осталось символов

[ Добавить еще ]
*2+3 =