Похоже, грань пройдена. Из поначалу развлекавших нас роликов, генерируемых искусственным интеллектом, незаметно выросла видео-синтетика иного рода - пугающая социум, сеющая панику, дезориентирующая, вымогающая деньги… Примеры тому рождаются едва ли не каждый день…
ИИ-польза и ИИ-зло, смотря в чьих руках …
В последнее время в интернете фиксируется наплыв пугающих видео с впечатляющими кадрами природных катаклизмов – гигантскими пожарами, масштабными затоплениями, оживающими вулканами, рушащимися мостами. Это – фейки. Точнее, дипфейки.
Так же, как один и тот же фармацевтический препарат может быть и лекарством, и ядом, один и тот же генеративный мозг умной машины способен и помогать людям, и основательно портить им жизнь. Вопрос – в чьих руках он окажется и каким замыслам послужит.
Как ИИ создаёт то, что не отличить от реальности?
Лучшие «натуральные умы» создавали и продолжают создавать умы искусственные, стараясь не просто довести их до своего уровня, но даже заставить роботов делать то, что обычному человеку не под силу. Ну так что ж теперь жаловаться, кажется, можем «расписаться в получении».
Невероятно, но сегодня, чтобы нейросеть смогла подделать «один в один» голос, скажем, вашего корреспондента, ей достаточно всего лишь в течение полуминуты послушать любую мою речь! А если ещё в её холодную и расчётливую «голову» заложить мои фотографии и видеоролики с моим участием, то пять минут, и будет сгенерирован сюжет, где фейковая я фейковым голосом внушаю потребителю фейковые вещи.
Недаром, слово дипфейк - от английских «deep learning» и "fake". «Deep learning» или «глубокое обучение» - это про машину, которую человек сам обучил настолько глубоко погружаться в детали реального мира, что теперь сложно отличить грань между создаваемым нейросетью вымыслом и правдой. За что боролись…
От фейков с губернаторами до вертолётов, сбивающих беспилотники
О недавних дипфейках, завирусившихся было поначалу в свердловских телелеграм-каналах и уже опровергнутых региональным УФСБ, сегодня говорит вся страна.
В случае с врио губернатора Свердловской области, Денисом Паслером, нейросеть так постаралась, что, если бы не опровержение, многие свердловчане поверили бы, будто высокопоставленный чиновник замешан в презентации нежелательной структуры на территории региона. Здесь мы открываем счёт перечню негативных последствий того, когда ИИ попадает в злые руки манипуляторов нашим сознанием. Одно из таких последствий – искажённо сформированное общественное мнение о личностях и событиях.
Вторая строчка в этом перечне – испуг, паника людей, потребивших фальшивку. Именно такие чувства вызвал у пользователей фальшивый ролик с вертолётом в свердловском небе, якобы сбивающим БПЛА. И хотя опровержение последовало, но ведь оно пришло не автоматически, ни секунда в секунду, и до него многие свердловчане успели испытать далеко не самые приятные ощущения – испуг, тревогу, смятение.
Фейковые катастрофы как повод собрать на «благотворительность»
Корыстный интерес высокотехнологичных мошенников уже тоже был неоднократно зафиксирован. Например, в случаях с недавними землетрясениями на Камчатке, в Турции. В сетевых сообществах ловкачи намеренно распространяли жалостливые видео, мастерски сгенерированные искусственным интеллектом. Видеоролики перемежали в себе кадры природной катастрофы и терпящих страдания людей на фоне общего бедствия. Чьё сердце не дрогнет, и кто не перечислит деньги им в помощь по тут же указываемым реквизитам?! И перечисляют легковерно, да ещё и в массовом порядке.
Эффектные подделки резко поднимают хитрецам просмотры
Это ещё одна из причин – почему фальшивки наводнили сегодня Интернет. Учитывая сегодняшнюю доступность сервисов с ИИ, сгенерировать и вбросить на потребу массового подписчика что-нибудь страшное и невероятное – это лёгкий и дешёвый способ резко взметнуть вверх просмотры, словить хайп, спровоцировать массовые пересылки.
Один из дипфейков, хитро обставленный документами и уже опровергнутый силовиками – начало, якобы, лимитированной, по талонам, продажи бензина в одни руки, в Екатеринбурге. Осторожнее с информационными провокациями!
Так, в Китае очень натурально рушатся гигантские стеклянные мосты, страшные акулы столь же правдоподобно перекусывают пополам известных людей, Калифорния то почти полностью затапливается, то сгорает в страшном огне. И народ в массе своей верит, что всё это происходит в реальности.
Единственное спасение – включать критическое мышление
Многие опрошенные нашими коллегами из «Известий» эксперты в области нейросетей считают, что только критический взгляд на всё, что размещается в Сети, убережёт психику пользователя. Один из специалистов, Сергей Бигулов, указывая на подлинный бум в области генерируемого видеоконтента, сетует на невиданную доселе доступность ИИ-сервисов для любого пользователя.
О технических деталях, отличающих подделку от подлинной видеозаписи
Деталей, которые должны вас насторожить, немного, но они есть:
- Во-первых, это иногда проскакиваемое несовпадение даты размещения ролика и геометок.
- Во-вторых, размытость изображений на заднем фоне.
- В-третьих, на ИИ тоже бывает «проруха», и он способен ошибаться, генерируя либо нереалистичные движения человека или животного, либо несколько искажённые лица. Присмотритесь.
Ну и главное. Вас обескуражили информацией о каком-то якобы невероятном событии? Оглянитесь шире в информационном пространстве, в котором работают ещё и официальные, лицензированные СМИ. Если ни в одном из них нет ни новостного следа, ни чьего- то бы ни было ответственного комментария, заявления «по поводу» и так далее, значит, уже первый звоночек – перед вами фальшивка.
Специалисты всё чаще говорят о необходимости новой медиа-грамотности. Дескать, чем шире пользователи будут осведомлены о возможностях искусственного интеллекта и его продуктах, тем ровнее они начнут дышать, сталкиваясь с дипфейками, перестанут реагировать на них, не позволят сбить себя с толку. Нужна, мол, максимальная гласность в вопросе.
Что, ж «ВЕДОМОСТИ Урал», не без интереса к теме, выполняют свою часть этой просветительской миссии.


31
Комментарии