«Нельзя так обманывать»: нейросеть научили создавать пугающе реалистичные видео

IT-эксперт Геллер: созданные ИИ видео могут использовать мошенники

«Нельзя так обманывать»: нейросеть научили создавать пугающе реалистичные видео

Перейти в Дзен Следите за нашими новостями
в удобном формате
Есть новость? Присылайте »

Искусственный интеллект меняет мир вокруг нас все больше.

На днях состоялась презентация новой нейросети Sora от создателей ChatGPT. Она предназначена для генерации видео по текстовым запросам, и показанные на демонстрации ролики, созданные ей, просто поражают воображение.

Учитывая то, какими семимильными шагами развивается искусственный интеллект (ИИ), полная симуляция реального мира в ближайшем будущем уже не кажется выдумкой фантастов. 5-tv.ru решил разобраться, на что способны самые современные нейросети, чего от них ждать через несколько лет, и какую угрозу они несут для людей.

Sora была представлена 15 февраля. Ее ключевой особенностью является возможность создания реалистичных видео по текстовому описанию.

Разработчики рассказали, что Sora способна генерировать ролики продолжительностью до одной минуты, а также продолжать и дополнять уже существующие видео. В качестве демонстрации ее способностей было показано несколько сгенерированных отрывков, которые, на первый взгляд, практически неотличимы от реальных съемок.

Такие достижения научно-технического прогресса не могут не впечатлять. Однако, помимо оптимистичных мечтаний о высокотехнологичном будущем, на ум приходят весьма тревожные мысли.

Если всего 11 месяцев назад ИИ был способен генерировать лишь что-то абстрактное, то теперь новая разработка создает пугающе реалистичные видео.

Такими темпами — возможно, уже через пару лет — мы не сможем понять, где реальность, а где подделка. IT- специалист Артем Геллер рассказал о рисках, связанных с настолько реалистичными генерациями.

«В бытовой суете, когда мы листаем ленты социальных сетей, отличить сгенерированное видео от настоящего очень сложно или даже практически невозможно. Сейчас, на данном этапе, довольно заметны различные артефакты (искажения видео — Прим. ред.). Наш мозг подсказывает нам — происходит что-то нереальное, и когда мы начинаем присматриваться к деталям — замечаем лишние пальцы, лишние ноги, необычные цвета и все остальное. Но пройдет год-три и станет все меньше различий с реальностью. Скорее всего, у нас появятся инструменты, с помощью которых можно будет отличить сгенерированные видео и фото от настоящих, возможно, они даже будут встроены в браузеры и социальные сети. В любом случае, работу нейросетей придется регламентировать — нельзя вот так просто обманывать людей. Но иногда мы все-таки будем обманываться, безусловно», — объяснил эксперт.

Но как вообще работает данная технология? Генерируя изображение, ИИ сравнивает получившийся результат с реальными фотографиями или картинами художников.

Если, по мнению машины, различия между реальностью и ее творением минимальны, то ее задача выполнена и она демонстрирует получившееся. Но как ИИ создает не просто статичное изображение, а подвижные объекты?

«Раньше мы удивлялись текстовым нейросетям, которые нам выдавали классные ответы на наши вопросы. Потом мы постепенно стали удивляться картинкам, ну вот теперь дошла очередь до видео. По сути, механизмы те же. Видео же — это набор картинок. Нейросеть создает по текстовому описанию картинку, потом проделывает с ней разные махинации, вроде кадрирования и так далее, и из таких картинок получается видео. Ресурсов это требует сильно больше, чем сгенерировать картинку, но результат мы видим», — поясняет специалист.

На данный момент Sora находится на этапе тестирования и доступ к ней есть только у очень узкого круга людей. Но что будет, если его откроют для всех желающих?

Вероятнее всего, нас ждет гигантская волна фейков, махинаций, а может и международных скандалов. Поэтому главная опасность стремительного развития ИИ — это не восстание машин, а использование передовых технологий в информационных войнах и мошеннических схемах.

Ранее 5-tv.ru писал, что телефонные мошенники начали использовать дипфейки.



Последние новости

14:15
14:08
14:04
14:00
13:52
13:40

Сейчас читают


Новости СМИ2


Новости партнеров