Распространение фальшивых новостей — это лишь первая волна фейкового контента, нашествие которого стоит ожидать в ближайшие годы. Генеративные нейросети (GAN) уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Журнал
The Economist приводит в пример видеоролик
Генеративные нейросети могут вывести фальшивые новости на новый уровень, в котором фейковые видеоролики и аудиодорожки нельзя будет отличить от настоящих. Принцип работы GAN-систем прост. Нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление, например, Трампа или другого политика. Хотя на самом деле никакого выступления не было.
В апреле канадский стартап Lyrebird
Генерирование изображений пока дается нейросетям сложнее. Даже после просмотра сотен картинок с собаками и кошками, нейросеть не может нарисовать убедительное вымышленное животное. Созданные ученым Яном Гудфеллоу GAN-системы изменили ситуацию. При запуске GAN одна нейросеть пытается обмануть другую, имитируя реальное изображение. Вторая нейросеть при этом контролирует процесс и сопоставляет генерированный контент с реальной базой изображений.
GAN уже удается по описанию составить довольно точный «фоторобот» птицы, хоть и небольшого размера. К тому же системы постоянно совершенствуются. По прогнозам Гудфеллоу, через три года YouTube заполнят фейковые ролики. Другие эксперты считают, что на налаживание процессов медиафальсификации уйдет больше времени, но рано или поздно это точно произойдет.
Программа
Со временем в арсенале каждого интернет-пользователя окажется
Комментарии (0)