С развитием генеративного искусственного интеллекта (ГИИ) становится все сложнее отличить реальные изображения от созданных искусственным интеллектом. Фраза “Увидев, поверю” теряет свое значение, поскольку ГИИ способен не только генерировать манипулированные изображения людей, но и создавать полностью вымышленные персонажи и сценарии.

Современные инструменты ГИИ доступны и недороги, поэтому изображения, созданные ИИ, становятся повсеместными. Если вы недавно пролистывали ленты новостей или Instagram, скорее всего, вы видели изображение, сгенерированное ИИ, даже не подозревая об этом. Как исследователь компьютерных наук и аспирант Университета Ватерлоо, я все больше обеспокоен своей неспособностью отличить реальное от созданного ИИ.

Наша исследовательская группа провела опрос, в котором почти 300 участников должны были классифицировать набор изображений как реальные или фальшивые. Средняя точность классификации участников составила 61% в 2022 году. Участники чаще правильно определяли реальные изображения, чем фальшивые. Вероятно, в настоящее время точность значительно ниже из-за быстрого развития технологий ГИИ.

Мы также проанализировали ответы участников с помощью текстового анализа и выделения ключевых слов, чтобы выяснить общие обоснования для их классификаций. Оказалось, что для определения подделки часто указывались глаза человека как показатель того, что изображение, вероятно, было создано ИИ. Кроме того, ИИ испытывает трудности при создании реалистичных зубов, ушей и волос. Однако эти индикаторы постоянно улучшаются, и признаки, которые мы раньше использовали для выявления изображений, созданных ИИ, становятся все менее надежными.

Первые исследования применения генеративных состязательных сетей (GAN) для синтеза изображений и видео начались в 2014 году. Важнейшая работа “Генеративные состязательные сети” представила концепцию состязательного процесса GAN. Несмотря на то, что в данной работе не упоминаются глубокие фейки, она послужила отправной точкой для их появления. Примеры искусства ГИИ, созданные с использованием GAN, включают изображения “DeepDream”, разработанные инженером Google Александром Мордвинцевым в 2015 году. Однако в 2017 году термин “глубокий фейк” был официально введен, когда пользователь Reddit с ником “deepfakes” использовал GAN для создания синтетической порнографии с участием знаменитостей.

В 2019 году программист Филип Ван создал сайт “ThisPersonDoesNotExist”, который использовал GAN для генерации реалистичных изображений людей. В том же году был запущен конкурс по обнаружению глубоких фейков, который привлек широкое внимание и способствовал росту этой технологии. Спустя примерно десять лет один из авторов работы о GAN, канадский ученый Йошуа Бенгио, начал высказывать свои опасения по поводу необходимости регулирования ИИ из-за потенциальных угроз, которые такие технологии могут представлять для человечества. В 2024 году Бенгио и другие пионеры ИИ подписали открытое письмо, призывающее к лучшему регулированию глубоких фейков. Он также возглавил первый Международный отчет по безопасности ИИ, опубликованный в начале 2025 года.

Хао Ли, пионер глубоких фейков и один из ведущих художников в этой области, признал, что развитие технологий идет быстрее, чем он ожидал: “Скоро дойдет до того, что мы не сможем обнаружить глубокие фейки, поэтому нам нужно искать другие решения”.

Крупные технологические компании действительно поощряют разработку алгоритмов, способных обнаруживать глубокие фейки. Эти алгоритмы обычно ищут следующие признаки:
– Количество слов в предложении или скорость речи (средняя скорость речи человека составляет 120-150 слов в минуту);
– Мимика, основанная на известных координатах человеческих глаз, бровей, носа, губ, зубов и контуров лица;
– Отражения в глазах, которые часто выглядят неправдоподобно (либо отсутствуют, либо чрезмерно упрощены);
– Насыщенность изображения: изображения, созданные ИИ, менее насыщенные и содержат меньше недоэкспонированных пикселей по сравнению с фотографиями, сделанными HDR-камерой.

Тем не менее, даже эти традиционные алгоритмы обнаружения глубоких фейков имеют свои недостатки. Обычно они обучаются на изображениях высокого разрешения, поэтому могут не сработать на низкокачественных видеозаписях с камер наблюдения или в условиях плохого освещения. Несмотря на неэффективные попытки регулирования, недобросовестные игроки продолжают использовать глубокие фейки и синтез ИИ для злонамеренных целей. Последствия такого несанкционированного использования варьируются от политической дестабилизации на национальном и глобальном уровнях до разрушения репутаций в результате личных атак.

Дезинформация не нова, но способы ее распространения постоянно меняются. Глубокие фейки можно использовать не только для распространения дезинформации, но и для создания правдоподобного отрицания, утверждая, что нечто истинное является ложным. В современном мире можно с уверенностью сказать, что видеть больше не значит верить. То, что когда-то считалось неопровержимым доказательством, может оказаться изображением, созданным ИИ.

Источник: Tech Xplore

3