Фейк (fake) – это что-то поддельное, ложное, не соответствующее действительности.
Простыми словами Фейк – это что-то неправдивое, выдающее себя за истинное; подделка.
В переводе с английского слово фейк (fake) означает «подделка».
Фейковые новости (фейк ньюс) – это фальшивые, ложные или вводящие в заблуждение новости, без проверяемых или точных фактов, цитат или источников.
Фейковые новости – настоящая проблема современности. Так, в преддверии последних президентских выборов в США фейковые новости в Facebook распространялись и читались более широко, чем настоящие мейнстримные статьи. Обычно фейковые истории создаются для того, чтобы
и часто могут быть прибыльным бизнесом для онлайн-издателей. Ложная информация может обмануть людей, выглядя как проверенные веб-сайты или используя имена и веб-адреса, аналогичные авторитетным новостным организациям.
По словам Мартины Чапман (эксперта по медиаграмотности), есть три элемента фейковых новостей:
Фейковые новости НЕ включают:
С тех пор как существуют фотографии и пленки, люди фабрикуют подделки, предназначенные для обмана или развлечения, и это только ускорилось с момента массового распространения Интернета. Но теперь вместо того, чтобы просто изменять изображения с помощью программного обеспечения для редактирования, такого как Photoshop, или обманчиво редактировать видео, появилась новая порода машинных подделок, которые в конечном итоге могут лишить нас возможности отличить факты от вымысла.
Дипфейки – это наиболее распространенная форма того, что называется «синтетическими носителями»: изображения, звук и видео, которые, казалось бы, были созданы традиционными средствами, но на самом деле созданы сложным программным обеспечением. Дипфейки существуют уже много лет, и, хотя их наиболее распространенным применением на сегодняшний день является пересадка голов знаменитостей на тела актеров в порнографических видео, они могут создать любые убедительные кадры, на которых любой человек делает что-либо и в любом месте.
Примером является история о популярном аккаунте в Твиттере, в котором рассказывается о приключениях симпатичной любительницы мотоциклов, которая оказалась 50-летним мужчиной.
В сентябре 2019 года амстердамская компания Deeptrace, организация, занимающаяся исследованием развивающихся возможностей и угроз дипфейков, опубликовала исследование почти 15 000 дипфейков, циркулирующих в то время в Интернете. Было обнаружено, что 96 процентов из них были порнографическими, причем 99 процентов из них изображали лица знаменитостей.
Дипфейки в их наиболее распространенной форме, видеоролики, в которых лицо одного человека убедительно заменено созданным компьютером лицом, которое часто напоминает лицо другого человека. Они приобрели известность в 2017 году в онлайн-сообществе под названием r / deepfakes subreddit, участники которого начали публиковать порнографические видео, в которых, по всей видимости, фигурировали популярные женщины-знаменитости. Было ясно, что знаменитости не принимали участия в создании видеороликов, но использованные методы были более убедительными, чем традиционные фейки, которые просто переносят лицо из одного видео на тело из другого.
Дипфейк относится к «глубокому обучению» (deep learning). Именно этот элемент и тот факт, что лица полностью создаются компьютером, делает глубокие фейки отличными от подделок, созданных людьми вручную, и потенциально более опасными.
Глубокое обучение (deep learning) – это метод обучения компьютеров и программного обеспечения, основанный на том, как обучается органический мозг. Он включает в себя системы, обрабатывающие определенные задачи снова и снова, иногда совершенно без присмотра людей, чтобы научиться наилучшему способу превратить определенные входные данные в желаемый результат.
Как правило, для создания убедительного дипфейка требуется много данных и много дорогостоящих вычислительных мощностей, хотя достижения в области технологий означают, что эти методы становятся доступными гораздо более широкой группе создателей контента, чем просто энтузиастам и профессионалам.
Передовые технологии обещают создавать более убедительные видеоролики, чем когда-либо, с еще меньшими усилиями. Специальные двухкомпонентные системы глубокого обучения, называемые генеративными состязательными сетями (GAN), стали популярными благодаря тому, что они могут создавать что угодно: от оригинальных сценариев до картин полностью изобретенных ландшафтов. Система, по сути, ведет игру против самой себя, критикуя и оценивая свой собственный результат.
Также был достигнут прогресс в создании общих алгоритмов для создания дипфейков. Это требует огромного количества времени и вычислительной мощности, но после завершения алгоритм потенциально может позволить вам создать мгновенное глубокое поддельное видео, просто загрузив два клипа в приложение или веб-браузер. Конечно, как и в случае с вирусами и антивирусами, любая технология, которая может обнаруживать или предотвращать глубокие фальшивые видео, скорее всего, будет только временной, тем более что подделками управляет искусственный интеллект, который призван обмануть восприятие людей.
Общую озабоченность вызывает то, что глубокие подделки могут быть использованы для дестабилизации демократии или иного вмешательства в политику. Это правда, что политики были целью многих глубоких фальсификаций. По мере того как США приближались к выборам 2020 года, лица Дональда Трампа и Джо Байдена оказались особенно популярными в создании дипфейков. На данный момент глубокие политические фейки обычно принимают форму сатиры.
Дипфейки также часто используют в кинематографе. Например, иностранные актеры генерируют синтетические голоса с помощью искусственного интеллекта, что позволяет им добавлять закадровый голос к видео, не теряя акцента.
За пределами политической и кинематографической сфер основное беспокойство вызывает использование глубоких фейков против обычных людей, поскольку повсеместное распространение видеоконтента в социальных сетях может создать совершенно новые возможности для глубоких фейков.
Если у человека есть, скажем, учетная запись TikTok или что-то подобное, с сотнями часов селфи-видео, это позволят легко превратить некоторые из кадров в дипфейки. Знаменитости и политики могут быть защищены своим статусом, но обычному человеку может быть сложно доказать свою невиновность, если его коллеги получат видео, которое, как кажется, показывает, что они делают что-то отвратительное.
Хотя рост Интернета делает поиск информации, доступ к ней и обмен ею быстрее, чем когда-либо прежде, он также делает оценку достоверности источников информации все более сложной.
Как научиться анализировать информацию критически и не попадаться на различные фейки?