IT обозрение
Среда, 16 июля, 2025
No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта
  • ИИ
No Result
View All Result
IT обозрение
No Result
View All Result
Home Новости

Компьютерные копии политиков сводят с ума миллиарды людей

13.11.2018
A A
0
Share on FacebookShare on Twitter

В мае в Интернете появился видеоролик, в котором Дональд Трамп давал совет Бельгии по проблеме изменения климата, пишет The Guardian. Видео создала бельгийская политическая партия Socialistische Partij Anders или sp.a, а также разместила его на Twitter и Facebook. Это вызвало сотни комментариев, многие выразили возмущение, что американский президент осмелился повлиять на политику Бельгии.

111.png (281 KB)

ЭТО ИНТЕРЕСНО

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта

15.07.2025
Honda показала Super EV Concept — компактный городской электрокроссовер

Honda показала Super EV Concept — компактный городской электрокроссовер

15.07.2025

Оказалось, что видеоролик был высокотехнологичной подделкой. В sp.a сообщили, что партия наняла производственную студию для машинного обучения с целью создать "дипфейк" (deepfake) – компьютерную копию человека, в этом случае – Трампа.

Задача sp.a состояла в том, чтобы использовать фейковое видео для привлечения внимания людей, затем их перенаправляли на онлайн-петицию, в которой призывали бельгийское правительство предпринять более срочные действия в вопросе климата. Создатели видео позже заявили, что более низкого качества поддельного видео было бы достаточно. "Из движений губ видно, что это не настоящая речь Трампа", — прокомментировал представитель sp.a.

Дипфейки

Фейковые видео можно создавать с использованием техники машинного обучения, называемой "генеративной состязательной сетью" или GAN. Студент-выпускник Ян Гудфеллоу изобрел GAN в 2014 году как способ алгоритмической генерации новых типов данных из уже существующих. Например, GAN может изучить тысячи фотографий Барака Обамы, а затем создать новое изображение, которое не будет точной копией предыдущих. GAN также могут использовать для создания нового аудио из уже существующего — это универсальная технология.

Использование этого метода машинного обучения было ограничено научным сообществом ИИ до конца 2017 года, пока пользователь Reddit с ником Deepfakes не начал опубликовывать сфабрикованные порнографические видео: он "накладывал" лица знаменитостей на тела женщин из порно. Позже создатель видео выпустил простую в использовании платформу для создания дипфейков — FakeApp.

222.jpg (45 KB)

"Дипфейки могут быть очень опасными – их ведь можно использовать как оружие, например, для ослабления структуры демократического общества. В 2015 году в Балтиморе убили Фредди Грея. И я представила, если бы в сеть выложили дипфейки о начальнике полиции", — прокомментировала профессор права в Университете штата Мэриленд Даниэль Цитрон.

Цитрон вместе со своим коллегой Бобби Чесни начали работу над докладом, в котором излагалась степень потенциальной опасности. Помимо угрозы частной жизни и национальной безопасности, оба ученых больше обеспокоены тем, что распространение дипфейков может катастрофически подорвать доверие между различными фракциями общества в уже поляризованном политическом климате.

В частности, дипфейки могут использовать распространители ложных новостей. Любой, кто имеет доступ к этой технологии — от санкционированных государством пропагандистов до троллей — сможет искажать информацию и манипулировать убеждениями.

В апреле режиссер Джордан Пил и БаззФид выпустили дипфейк с Бараком Обамой (где он называл Трампа "недоумком"), чтобы повысить осведомленность общества о созданных искусственных интеллектом синтетических медиа, которые могут использоваться для искажения и манипулирования реальностью. В сентябре три члена Конгресса отправили письмо директору национальной разведки, выразив опасения по поводу того, как можно использовать дипфейки в "кампаниях дезинформации на выборах".

333.jpg (102 KB)

Влияние дипфейков

Директор Ethics and Governance of Artificial Intelligence Initiative Тим Хванг долгое время изучал распространение дезинформации в медиа, и, за исключением бельгийского инцидента, еще не видел действительно негативных последствий от дипфейков. По мнению Хванга, это отчасти потому, что использование машинного обучения для создания убедительных поддельных видео по-прежнему требует определенной степени знаний и большого количества данных.

В то же время Хванг признает, что сейчас дипфейки становятся более реалистичными и их легче создавать. "Мы уже давно можем обрабатывать фото и видео. Но, если раньше вы хотели снять дипфейк, то вам понадобилась бы команда экспертов. Машинное обучение не только автоматизирует этот процесс, но и, вероятно, улучшит качество фейка", — заявил Хванг.

В августе международная команда исследователей, связанная с Институтом информатики общества Макса Планка, представила технологию для создания "портретных дипфейков": одно лицо подменяется другим, например, исследователь открывает рот – и фейковый Барак Обама открывает рот.

444.jpg (53 KB)

По мнению ученого Кристиана Теобальта, "портретные дипфейки" наиболее эффективно будут использоваться для дубляжа в иностранных фильмах. Исследователи признали потенциальное злоупотребление технологией, но подчеркнули, что их подход может произвести "революцию в индустрии визуальных развлечений".

"Сообществу ценителей спецэффектов понравится новая технология. Но за пределами Голливуда неясно, перевесят ли положительные аспекты негативные", — прокомментировал профессор информатики Калифорнийского университета в Беркли Хани Фарид.

В июне исследователи из Университета в Олбани (SUNY) опубликовали документ, в котором объясняется, как идентифицировать поддельное видео. Facebook также обязался разрабатывать модели машинного обучения для выявления дипфейков. Тем не менее, Фарид считает, что даже судебно-медицинская экспертиза не поможет распознать фейковое видео, так как машинное обучение может запросто обойти ее.

"Все, что нужно программисту — это обновить алгоритм, чтобы искать, скажем, изменения цвета в лице, которые соответствуют сердечному ритму", — сообщил Фарид. — "Проблема не только в прогрессе технологии дипфейков. Социальные процессы, посредством которых мы коллективно узнаем вещи и считаем их истинными или неверными, находятся под угрозой".

Эксперты утверждают, что наибольшая угроза дипфейков не в самом содержании, а в простом существовании. Так, по совам ученого Авива Овадьи, постоянный контакт с дезинформацией вызывает у людей недоверие к тому, что они видят и слышат. Недавние опросы показывают, что доверие к основным институтам и средствам массовой информации снижается. Овадья убежден, что распространение дипфейков, скорее всего, усугубит эту тенденцию.

Читайте так-же

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта
Новости

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта

15.07.2025
0

Центральное бюро расследований Индии (CBI), Национальное агентство по борьбе с преступностью Великобритании (NCA), Федеральное бюро расследований США (ФБР) и Microsoft...

Read more
Honda показала Super EV Concept — компактный городской электрокроссовер

Honda показала Super EV Concept — компактный городской электрокроссовер

15.07.2025
Илон Маск обещает «самую эпическую демонстрацию» Tesla до конца года — снова

Илон Маск обещает «самую эпическую демонстрацию» Tesla до конца года — снова

15.07.2025
Ученые нашли отличие психопатов — меньший мозг, чем у обычных людей

Ученые нашли отличие психопатов — меньший мозг, чем у обычных людей

15.07.2025
Том Холланд: «Человек-паук 4» вернет Marvel к «старой школе кино» со съемками в реальных местах и практическими эффектами

Том Холланд: «Человек-паук 4» вернет Marvel к «старой школе кино» со съемками в реальных местах и практическими эффектами

15.07.2025

ТОП НОВОСТИ

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта

Фальшивый Microsoft — международный колл-центр работал под софтверного гиганта

15.07.2025
Трейлер Borderlands 4 показал Железяку и функцию его отключения в настройках

Трейлер Borderlands 4 показал Железяку и функцию его отключения в настройках

15.07.2025
Huawei готовит компактный фолд в стиле iPhone Fold

Huawei готовит компактный фолд в стиле iPhone Fold

15.07.2025
Honda показала Super EV Concept — компактный городской электрокроссовер

Honda показала Super EV Concept — компактный городской электрокроссовер

15.07.2025
Фанатский ремейк Star Wars Dark Forces 2 на Unreal Engine 4 продолжает развиваться

Фанатский ремейк Star Wars Dark Forces 2 на Unreal Engine 4 продолжает развиваться

15.07.2025

ПОПУЛЯРНОЕ

  • СМИ: Китай создаст большой ИИ-центр в пустыне

    СМИ: Китай создаст большой ИИ-центр в пустыне

    0 shares
    Share 0 Tweet 0
  • Нейросеть цифровых копий разума

    0 shares
    Share 0 Tweet 0
  • Редкий случай, когда без переплаты за бренд. Обзор OnePlus 13 — в этот раз хорош

    0 shares
    Share 0 Tweet 0
  • Три режиссерских режима, свобода действий и тематическая PS5 – что показали во время трансляции Ghost of Yotei

    0 shares
    Share 0 Tweet 0
  • Сирена Векс и ее геймплей в новых роликах Borderlands 4

    0 shares
    Share 0 Tweet 0
  • Реклама
  • Контакты
  • Политика конфиденциальности
Реклама: digestmediaholding@gmail.com

Использование любых материалов сайта разрешается при условии ссылки на itoboz.com
Интернет-СМИ должны использовать открытую для поисковых систем гиперссылку. Ссылка должна размещаться в подзаголовке или в первом абзаце материала. Редакция может не разделять точку зрения авторов статей и ответственности за содержание републицируемых материалов не несет.

© 2010-2025 IT новости. All Rights reserved

No Result
View All Result
  • Новости
  • Игры
  • Смартфоны
  • Обзоры
  • Софт
  • Криптовалюта

Использование любых материалов сайта разрешается при условии ссылки на itoboz.com
Интернет-СМИ должны использовать открытую для поисковых систем гиперссылку. Ссылка должна размещаться в подзаголовке или в первом абзаце материала. Редакция может не разделять точку зрения авторов статей и ответственности за содержание републицируемых материалов не несет.

© 2010-2025 IT новости. All Rights reserved

wpDiscuz