25.04.2024

Порноиндустрия встревожена поведением искусственного интеллекта

Труженики секс-индустрии, занятые в съемках порнофильмов, могут лишиться работы из-за стремительного развития технологий на основе использования искусственного интеллекта (А1).

Современные технологии позволяют уложить проститутку в постель даже Папе Римскому

Порно, созданное на базе А1, впервые начало распространяться по Интернету несколько лет назад, когда пользователь Reddit поделился клипами, в которых порноактеры уподобились знаменитостям.

С тех пор создатели deepfake распространяли похожие видео и изображения, ориентированные на влиятельных людей в Интернете, журналистов и других лиц с публичным профилем.

Тысячи соответствующих видеороликов размещены на множестве веб-сайтов, а некоторые даже предлагают пользователям возможность создавать свои собственные изображения — по сути, позволяя любому воплощать в сексуальных фантазиях кого угодно без их согласия или использовать технологию для нанесения вреда бывшим партнерам.

По мнению экспертов, проблема усугубилась по мере появления возможности создавать сложные и визуально привлекательные глубокие подделки.

А с учетом изобретения генеративных инструментов искусственного интеллекта, которые обучаются на миллиардах изображений из Интернета и выдают новый контент, используя существующие данные, виртуализация становится почти неотличимой от натуральных сцен и лиц в них участвующих.

“Реальность такова, что технология будет продолжать распространяться, будет продолжать развиваться и по-прежнему становиться такой же простой, как нажатие кнопки”, — жалуется Адам Додж, основатель EndTAB, группы, которая проводит тренинги по злоупотреблениям с использованием технологий.

“И до тех пор, пока это происходит, люди, несомненно… будут продолжать злоупотреблять этой технологией, чтобы причинять вред другим, в первую очередь посредством сексуального насилия в Интернете, поддельной порнографии и поддельных изображений обнаженной натуры”.

В реальной жизни Ноэль Мартин из Перта, Австралия, пережила эту реальность на собственном опыте.

28-летняя девушка вдруг обнаружила себя в порнографическом видео, когда однажды из любопытства воспользовалась Google для поиска собственного изображения.

Это было десять лет назад, но и по сей день Мартин не знает, кто создал поддельные изображения или видеозаписи ее полового акта, подозревая, что кто-то, скорее всего, использовал фотографию, размещенную на ее странице в социальных сетях или где-то еще.

Придя в ужас, Мартин на протяжении нескольких лет обращался к различным веб-сайтам, пытаясь удалить изображения. Некоторые не ответили. Другие сняли файл, но вскоре восстановили показ фейкового видео с участием Мартин.

“Ты не можешь это победить”, — жалуется Мартин. «Это то, что всегда будет на виду. Как будто это навсегда погубило тебя.”

По ее словам, чем больше она возмущалась, тем резче обострялась проблема.

Некоторые люди даже сказали ей, что то, как она одевалась и размещала изображения в социальных сетях, способствовало домогательствам — по сути, обвиняя ее в изображениях, а не создателей.

В конце концов, Мартин обратила свое внимание на законодательство, выступая за принятие национального закона в Австралии, который оштрафует компании на 555 000 австралийских долларов (370 706 долларов США), если они не будут выполнять уведомления об удалении такого контента от регулирующих органов по безопасности в Интернете.

Однако воздействовать на интернет-ресурсы практически невозможно, когда в странах действуют свои собственные законы в отношении контента, который иногда создается на другом конце света. Мартин, в настоящее время адвокат и исследователь права в Университете Западной Австралии, считает, что, по ее мнению, проблему необходимо контролировать с помощью какого-то глобального решения.

Тем временем некоторые модели искусственного интеллекта заявляют, что они уже ограничивают доступ к откровенным изображениям.

Компания OpenAI подтвердила, что удалила явный контент из данных, используемых для обучения инструмента создания изображений DALL-E, что ограничивает возможности пользователей создавать изображения такого типа.

Компания также фильтрует запросы и заявляет, что блокирует пользователям создание изображений знаменитостей и выдающихся политиков с помощью искусственного интеллекта.

Midjourney, другая фича, блокирует использование определенных ключевых слов и рекомендует пользователям сообщать модераторам о проблемных изображениях.

Тем временем, стартап Stability AI в ноябре 2022 года выпустил обновление, которое удаляет возможность создавать четкие изображения с помощью своего генератора изображений Stable Diffusion.

 Эти изменения произошли после сообщений о том, что некоторые пользователи создавали фотографии обнаженной натуры, вдохновленные знаменитостями, используя эту технологию.

Представитель Stability AI Мотез Бишара поснил, что фильтр использует комбинацию ключевых слов и других методов, таких как распознавание изображений, для обнаружения обнаженной натуры и возвращает размытое изображение. Н

Вместе с тем, пользователи могут манипулировать программным обеспечением и генерировать то, что они хотят, поскольку компания публикует свой код для широкой публики.

Хотя Бишара заявляет, что лицензия Stability AI “распространяется на сторонние приложения, построенные на Stable Diffusion”, и строго запрещает “любое злоупотребление в незаконных или аморальных целях”.

Некоторые компании, работающие в социальных сетях, также ужесточили свои правила, чтобы лучше защитить свои платформы от вредоносных материалов.

В прошлом месяце рукводство TikTok подтвердило, что все фейки или манипулируемый контент, который показывает реалистичные сцены, должны быть помечены, чтобы указать, что они поддельные или каким-то образом изменены, и что фейки частных лиц и молодых людей больше не разрешены.

Ранее компания запрещала контент откровенного сексуального содержания и фейки, которые вводят зрителей в заблуждение относительно событий реального мира и причиняют вред.

Игровая платформа Twitch также недавно обновила свою политику в отношении откровенных изображений deepfake после того, как в конце января во время прямой трансляции в браузере популярного стримера по имени Atrioc был обнаружен открытый порносайт deepfake.

На сайте были размещены фальшивые изображения других стримеров Twitch.

Twitch уже запретил откровенные фейки, но теперь показ такого контента — даже если он предназначен для выражения возмущения — “будет удален и приведет к принудительному исполнению”, — написала компания в своем блоге.

А намеренное продвижение, создание или распространение материала является основанием для немедленного запрета.

Другие компании также пытались запретить deepfakes на своих платформах, но их устранение требует усердия.

Недавно Apple и Google заявили, что удалили из своих App store приложение, в котором для продвижения продукта размещались видеоролики deepfake с сексуальными намеками на актрис.

Исследования порнографии deepfake не распространены, но в одном отчете, опубликованном в 2019 году фирмой по искусственному интеллекту DeepTrace Labs, было обнаружено, что она почти полностью направлена против женщин, и наиболее уязвимыми лицами были западные актрисы, за которыми следовали южнокорейские певицы K-pop.

То же самое приложение, удаленное Google и Apple, показывало рекламу на платформе Meta, которая включает Facebook, Instagram и Messenger. Представитель Meta Дэни Левер отметил, что политика компании ограничивает контент для взрослых, созданный как с помощью искусственного интеллекта, так и без него и запрещает рекламу страницы приложения на своих платформах.

В феврале Meta, а также сайты для взрослых, такие как OnlyFans и Pornhub, начали участвовать в онлайн-инструменте под названием Take It Down, который позволяет подросткам сообщать о своих откровенных изображениях и видео из Интернета.

Сайт отчетов работает с обычными изображениями и контентом, созданным с помощью искусственного интеллекта, что вызывает растущую озабоченность групп по обеспечению безопасности детей.

“Когда люди спрашивают наше высшее руководство, о каких валунах, падающих с холма, мы беспокоимся? Первый — это сквозное шифрование и то, что это означает для защиты детей. И, во-вторых, искусственный интеллект и, в частности, глубокие подделки”, — жалуется Гэвин Портной, представитель Национального центра по делам пропавших без вести и эксплуатируемых детей, который управляет инструментом Take It Down.

О каких-либо российских разработках в области deepfake пока ничего не слышно.

Поделиться

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика