$
76.97
89.90

Сообщить информацию

Осторожно: атакует видеоконтент! Как манипуляторы превращают нейросети в общественное зло

Фото: нейросеть
27.08.2025

Похоже, грань пройдена. Из поначалу развлекавших нас роликов, генерируемых искусственным интеллектом, незаметно выросла видео-синтетика иного рода - пугающая социум, сеющая панику, дезориентирующая, вымогающая деньги… Примеры тому рождаются едва ли не каждый день…

ИИ-польза и ИИ-зло, смотря в чьих руках …

В последнее время в интернете фиксируется наплыв пугающих видео с впечатляющими кадрами природных катаклизмов – гигантскими пожарами, масштабными затоплениями, оживающими вулканами, рушащимися мостами. Это – фейки. Точнее, дипфейки.

Чем отличаются первые от вторых, спросит читатель. Если просто фейком можно назвать даже придумку бабушки на лавочке, то дипфейк – исключительно продукт искусственного интеллекта.

Так же, как один и тот же фармацевтический препарат может быть и лекарством, и ядом, один и тот же генеративный мозг умной машины способен и помогать людям, и основательно портить им жизнь. Вопрос – в чьих руках он окажется и каким замыслам послужит.

Как ИИ создаёт то, что не отличить от реальности?

Лучшие «натуральные умы» создавали и продолжают создавать умы искусственные, стараясь не просто довести их до своего уровня, но даже заставить роботов делать то, что обычному человеку не под силу. Ну так что ж теперь жаловаться, кажется, можем «расписаться в получении».

Невероятно, но сегодня, чтобы нейросеть смогла подделать «один в один» голос, скажем, вашего корреспондента, ей достаточно всего лишь в течение полуминуты послушать любую мою речь! А если ещё в её холодную и расчётливую «голову» заложить мои фотографии и видеоролики с моим участием, то пять минут, и будет сгенерирован сюжет, где фейковая я фейковым голосом внушаю потребителю фейковые вещи.

Недаром, слово дипфейк - от английских «deep learning» и "fake". «Deep learning» или «глубокое обучение» - это про машину, которую человек сам обучил настолько глубоко погружаться в детали реального мира, что теперь сложно отличить грань между создаваемым нейросетью вымыслом и правдой. За что боролись…

От фейков с губернаторами до вертолётов, сбивающих беспилотники

О недавних дипфейках, завирусившихся было поначалу в свердловских телелеграм-каналах и уже опровергнутых региональным УФСБ, сегодня говорит вся страна.

В случае с врио губернатора Свердловской области, Денисом Паслером, нейросеть так постаралась, что, если бы не опровержение, многие свердловчане поверили бы, будто высокопоставленный чиновник замешан в презентации нежелательной структуры на территории региона. Здесь мы открываем счёт перечню негативных последствий того, когда ИИ попадает в злые руки манипуляторов нашим сознанием. Одно из таких последствий – искажённо сформированное общественное мнение о личностях и событиях.

Вторая строчка в этом перечне – испуг, паника людей, потребивших фальшивку. Именно такие чувства вызвал у пользователей фальшивый ролик с вертолётом в свердловском небе, якобы сбивающим БПЛА. И хотя опровержение последовало, но ведь оно пришло не автоматически, ни секунда в секунду, и до него многие свердловчане успели испытать далеко не самые приятные ощущения – испуг, тревогу, смятение.

Фейковые катастрофы как повод собрать на «благотворительность»

Корыстный интерес высокотехнологичных мошенников уже тоже был неоднократно зафиксирован. Например, в случаях с недавними землетрясениями на Камчатке, в Турции. В сетевых сообществах ловкачи намеренно распространяли жалостливые видео, мастерски сгенерированные искусственным интеллектом. Видеоролики перемежали в себе кадры природной катастрофы и терпящих страдания людей на фоне общего бедствия. Чьё сердце не дрогнет, и кто не перечислит деньги им в помощь по тут же указываемым реквизитам?! И перечисляют легковерно, да ещё и в массовом порядке.

Эффектные подделки резко поднимают хитрецам просмотры

Это ещё одна из причин – почему фальшивки наводнили сегодня Интернет. Учитывая сегодняшнюю доступность сервисов с ИИ, сгенерировать и вбросить на потребу массового подписчика что-нибудь страшное и невероятное – это лёгкий и дешёвый способ резко взметнуть вверх просмотры, словить хайп, спровоцировать массовые пересылки.

Один из дипфейков, хитро обставленный документами и уже опровергнутый силовиками – начало, якобы, лимитированной, по талонам, продажи бензина в одни руки, в Екатеринбурге. Осторожнее с информационными провокациями!

Так, в Китае очень натурально рушатся гигантские стеклянные мосты, страшные акулы столь же правдоподобно перекусывают пополам известных людей, Калифорния то почти полностью затапливается, то сгорает в страшном огне. И народ в массе своей верит, что всё это происходит в реальности.

Единственное спасение – включать критическое мышление

Многие опрошенные нашими коллегами из «Известий» эксперты в области нейросетей считают, что только критический взгляд на всё, что размещается в Сети, убережёт психику пользователя. Один из специалистов, Сергей Бигулов, указывая на подлинный бум в области генерируемого видеоконтента, сетует на невиданную доселе доступность ИИ-сервисов для любого пользователя.

То, что нас сегодня пугает и дезориентирует – это во многом издержки демократизации наших отношений с искусственным интеллектом. Слишком уж он стал «своим» для любых рук.

О технических деталях, отличающих подделку от подлинной видеозаписи

Деталей, которые должны вас насторожить, немного, но они есть:

  • Во-первых, это иногда проскакиваемое несовпадение даты размещения ролика и геометок.
  • Во-вторых, размытость изображений на заднем фоне.
  • В-третьих, на ИИ тоже бывает «проруха», и он способен ошибаться, генерируя либо нереалистичные движения человека или животного, либо несколько искажённые лица. Присмотритесь.

Ну и главное. Вас обескуражили информацией о каком-то якобы невероятном событии? Оглянитесь шире в информационном пространстве, в котором работают ещё и официальные, лицензированные СМИ. Если ни в одном из них нет ни новостного следа, ни чьего- то бы ни было ответственного комментария, заявления «по поводу» и так далее, значит, уже первый звоночек – перед вами фальшивка.

Специалисты всё чаще говорят о необходимости новой медиа-грамотности. Дескать, чем шире пользователи будут осведомлены о возможностях искусственного интеллекта и его продуктах, тем ровнее они начнут дышать, сталкиваясь с дипфейками, перестанут реагировать на них, не позволят сбить себя с толку. Нужна, мол, максимальная гласность в вопросе.

Что, ж «ВЕДОМОСТИ Урал», не без интереса к теме, выполняют свою часть этой просветительской миссии.

Ирина ВЛАДИМИРОВА, «Агентство социально-правовой информации «ВЕДОМОСТИ Урал»
(зарегистрировано Роскомнадзором ИА № ФС77-81712)

Ссылки по теме

Комментарии

Аркадий 02.09.2025
Аукнуться в ближайшем будущем нам эти нейросети, получим дерьма
ответить
Добавить комментарий
Высказывания, оскорбляющие честь и достоинство граждан, в том числе по национальной либо религиозной принадлежности, призывы к насильственному изменению государственного строя и разжигающие межнациональную рознь не публикуются.
Внимание! Поля, помеченные * - обязательны для заполнения
Все материалы раздела "Статьи"
Данный сайт использует файлы cookie и прочие похожие технологии. В том числе, мы обрабатываем Ваш IP-адрес для определения региона местоположения. Используя данный сайт, вы подтверждаете свое согласие с политикой конфиденциальности сайта.
OK