Всё как у людей: как отличить рисунки нейросети от работ художников - Медиацентр
Телефон:
Адрес:
123112, г. Москва, Пресненская наб., д. 8 стр. 1
Поиск по сайту
28 февраля 2023

Всё как у людей: как отличить рисунки нейросети от работ художников

Вьетнамского художника Бена Морана исключили из популярного арт-сообщества r/Art на Reddit после публикации рисунка, на который тот потратил около 100 часов. Там посчитали, что мужчина загрузил изображение, сгенерированное нейросетью. Эксперты сходятся на том, что проблема смешения работ, созданных человеком и искусственным интеллектом, сегодня становится всё острее. В том, как отличить рисунки и почему это важно, разбирались «Известия».

Напрасный труд

В конце декабря 30-летний Минь Ань Нгуен Хоанг, более известный под псевдонимом Бен Моран, нарисовал обложку для фэнтези-романа и решил поделиться результатом. На форуме с 22 млн подписчиков он опубликовал свою картину «Муза в зоне боевых действий», где изображена главная героиня сериала «Под лунами драконьих глаз».

Но реакция модераторов на рисунок оказалась неожиданной: они пометили изображение как созданное искусственным интеллектом. Художник отправил жалобу и предложил предоставить исходный файл изображения для проверки. Автор рассказал, что рисунок был одним из четырех вариантов обложки и он в общей сложности работал над ним около пяти суток. За обложку ему обещали заплатить $500.

Работа художникаФото: r/ArtРабота художника Минь Ань Нгуен Хоанга

Однако модератор отказался верить Морану и посоветовал ему «найти другой стиль». «Даже если бы вы нарисовали это сами, картину всё равно бы удалили, ведь она явно вдохновлена искусственным интеллектом. Простите, так устроен мир», — ответил представитель площадки.

Смешанные чувства

История с блокировкой Морана быстро набрала популярность в Сети. Художники устроили протест на Reddit: они стали постить изображения с табличкой о том, что r/Art ошибочно банит художников и требует сменить стиль. А обычные пользователи — спорить о том, можно ли с первого взгляда определить, где настоящее изображение, а где «рисунок» нейросети.

Сам Моран рассказал, что ситуация вызвала у него смешанные чувства. С одной стороны, он был польщен, а с другой — расстроен.

«Искусственный интеллект учится у лучших — потому сравнение с ним означает, что моя работа хороша. Но в то же время это обесценивание моего творчества: ведь это была долгая и тяжелая работа, а мне вроде как сказали, что я просто случайный парень, который набрал несколько слов в программе и получил картину», — отметил вьетнамский художник.

Он добавил, что не ждет никаких извинений от арт-площадки (как этого требовали многие художники в комментариях), а просто хочет иметь возможность выставлять свои работы в Сети — без опасений, что их снова заблокируют. И намерен «защитить свое право оставаться художником-человеком».

«Поэтому я с опаской смотрю на то, как развивается искусственный интеллект. Я боюсь, что все художники просто потеряют страсть к созданию картин», — признался Моран.

Между тем администраторы r/Art в итоге признали свою ошибку. Они отметили, что модераторами работают неоплачиваемые волонтеры, у которых «тоже бывают плохие дни и иногда они говорят что-то в запале». При этом в сообществе отметили, что считают правильной блокировку подозрительных работ — иначе найдутся люди, которые на самом деле будут публиковать их, выдавая за свои. А это может стать трендом, который реально навредит художникам.

Технологии будущего

Нейросети, способные генерировать реалистичные изображения, считаются одним из наиболее перспективных направлений в области исследований искусственного интеллекта (ИИ). По словам директора центра разработки Artezio Дмитрия Паршина, это направление машинного обучения начало исследоваться только несколько лет назад — в 2014–2015 годах.

При этом коммерчески применимые результаты появились лишь некоторое время спустя, в зависимости от задачи. Например, создание реалистичных изображений лиц было достигнуто в 2018 году, а создание реалистичных изображений пейзажей (это более сложно) — в 2019 году.

Вместе с тем, чем активнее развиваются нейросети, тем сложнее становится отличать их «творения» от работ обычных людей. Как объясняет руководитель лаборатории компьютерного зрения в «Контуре» Дмитрий Иванков, сгенерированные изображения особенно важно уметь отличать от реальных в тех случаях, когда их использование способно нанести какой-либо вред.

Речь может идти как об этическом аспекте — к примеру, выдаче работы нейросети за свою, так и о финансовом (незаконная продажа сгенерированных работ) или репутационном (например, генерация изображений известных людей в компрометирующих целях).

Кроме того, изображениями, которые сгенерировали нейросети, могут воспользоваться злоумышленники для онлайн-мошенничества — скама, создания профилей в соцсетях со зловредными намерениями или фишинговых рассылок.

— Чаще всего в скам-схемах жертве обещают выплату крупной суммы денег, дорогостоящий приз или нечто бесплатное, — говорит старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин. — Для большей убедительности подобное письмо могут сопроводить фотографией известной личности.

По словам Аникина, искусственно сгенерированные изображения также могут использовать для обмана потенциальных жертв на сайтах знакомств.

— Нужно отметить, что IT-сообщество прекрасно осознает возможные проблемы, поэтому в последние годы специалисты всё чаще задаются вопросом выработки и соблюдения этических норм. Причем не только в области генерации изображений, но и в сфере искусственного интеллекта в целом, — отметил Дмитрий Иванков.

Гонка вооружений

Для того чтобы отличать изображения, созданные людьми, от работ нейросетей, применяются так называемые ИИ-детекторы. По словам Дмитрия Иванкова, чаще всего такими детекторами становятся новые нейросети, обученные на уже существующих сгенерированных конкретных изображениях. Однако их общая проблема в том, что они быстро устаревают и теряют в качестве с появлением новых методов генерации. В связи с этим им требуется обновление и дообучение на новых данных. Ко всему прочему, не все ИИ-детекторы одинаково хорошо работают на конкретных данных.

— Проблема состоит в том, что определить, создал ли некий контент человек или нейросеть, может только другая нейросеть, которая обучается на том, что какой-то человек взял и посмотрел, что вот это сделала нейросеть, а вот это — реальный автор, — говорит операционный директор Dreamdocs.ru Анастасия Петелина.

По словам эксперта, проблема похожа на войну вирусов и антивирусов, которая была в свое время. Ведь всегда может появиться следующая нейросеть, которая будет делать еще более умные картинки, слабо отличимые от творений человека. Это вопрос гонки мощностей: однажды очень сложно будет выделить, что сделал человек, а что — нейросеть.

— Уже сейчас наблюдается проблема в части текстов, — говорит собеседница «Известий». — Была история: тестировали тексты — и часть текстов, которые написали люди, пользователи приняли за материалы, сгенерированные нейросетью. Рано или поздно возникнет проблема, что одно будет неотличимо от другого. Сейчас, конечно, единственным мерилом является человек, который может сравнить контент. А раз это по силам человеку, значит, можно обучать и нейросети.

Следить за руками

Несмотря на то что гарантированного способа отличить изображение, созданное нейросетями, от работы человека пока не существует, есть несколько факторов, которые могут указать на искусственность картинки.

Это может быть однотипный фон и крупность плана на нескольких снимках, близкая к идеальной, или, наоборот, неестественная симметрия лица, искажения на волосах и мочках ушей, объясняет в беседе с «Известиями» директор платформы по развитию корпоративных инноваций Generation S Екатерина Петрова.

Эксперт советует отдельно обращать внимание на качество прорисовки рук и пальцев. Пальцы — одни из наиболее сложных элементов для изображения: недаром профессиональные художники тратят массу времени, чтобы научиться рисовать человеческую кисть. Сложно сказать, через какое время нейросети усовершенствуют прорисовку рук, однако на данный момент именно пальцы — одно из наиболее уязвимых мест в сгенерированных искусственным интеллектом изображениях.

Дмитрий Паршин рекомендует обращать внимание и на другие мелкие детали. У картин, созданных нейросетями, может не хватать некоторых элементов, что часто видно при близком рассмотрении. А еще искусственные изображения могут иметь случайные, неуместные элементы или шум.

— Из других типичных ошибок — слишком много зубов или «отсутствующий» взгляд на фотографии, — говорит Екатерина Петрова. — Именно по неестественно изображенным глазам чаще всего и удается распознать дипфейк. Однако, учитывая ту скорость, с которой технологии машинного обучения расширяют свои способности, рассчитывать на то, что человек сможет достоверно отличить искусственное изображение от настоящего, нам не приходится.

Еще одним важным ключом для идентификации изображения, созданного ИИ, является водяной знак. Нейросеть DALL-E 2 размещает его на каждой фотографии, которую пользователь загружает с сайта. Знак находится в правом нижнем углу изображения, он выглядит как пять квадратов желтого, бирюзового, зеленого, красного и синего цветов.

По мнению генерального директора компании Smart Engines, кандидата технических наук Владимира Арлазарова, нейросети уже сейчас могут заменять художников и будут делать это в дальнейшем. Но это касается не всех мастеров, а только тех, кто пишет «посредственные работы и копии».

— Художникам надо будет серьезно взяться за дело, ведь в конкуренцию с ними вступили ученые, которые хотят разгадать тайну творчества, — говорит Арлазаров. — Конечно, пока серьезную конкуренцию творческим людям нейросети составляют там, где не нужно шедевров, оригинальности или просто высокого качества. Это особенно будет проявляться в дизайне, где большая часть работ — ширпотреб. Но это только пока, и если среди художников не появится новых Ван Гогов, Ренуаров, Моне, Малевичей, Кандинских, всё будет весьма плачевно для этой профессии, потому что нейросети не остановятся в своем развитии.

Источник: iz.ru
Вы успешно подписались!
Будьте в курсе!
Подписываясь на ньюслеттер проекта, вы соглашаетесь с условиями пользовательского соглашения