Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Исследование: несмотря на новые меры, Grok Илона Маска всё ещё создает непристойные изображения

Архивное фото: генеральный директор Tesla и SpaceX Илон Маск выступает на конференции и выставке SATELLITE, 9 марта 2020 года, Вашингтон
Архив: гендиректор Tesla и SpaceX Илон Маск выступает на конференции и выставке SATELLITE, 9 марта 2020 года в Вашингтоне Авторское право  AP Photo/Susan Walsh, File
Авторское право AP Photo/Susan Walsh, File
By Anna Desmarais
Опубликовано
Поделиться Комментарии
Поделиться Close Button

По данным аналитического центра, подавляющее большинство пользовательского контента Grok, анализированного в середине января, изображает наготу или сексуальную активность.

Платформа искусственного интеллекта (ИИ) Grok Илона Маска по-прежнему используется для создания откровенно сексуальных изображений, несмотря на недавние ограничения компании, говорится в новом анализе.

Прошлым летом xAI, операционная компания Grok, запустила функцию генерации изображений, включавшую режим «spicy», позволяющий создавать контент для взрослых. В последние недели эту функцию использовали, чтобы «раздевать» женщин на фотографиях.

После нарастающей критики материнская компания X заявила 14 января, что «внедрила технологические меры», чтобы помешать Grok редактировать изображения реальных людей в откровенной одежде.

Однако европейская некоммерческая организация AI Forensics обнаружила, что с помощью Grok по-прежнему можно генерировать сексуализированные изображения людей.

Она проанализировала 2 000 пользовательских бесед 19 января и установила, что «подавляющее» большинство содержало наготу или сексуальную активность, показывая, что платформа всё ещё используется для создания сексуальных изображений.

Исследователи также выяснили, что пользователи могут обходить ограничения, заходя в Grok напрямую через его сайт, а не через X, или используя Grok Imagine, инструмент ИИ для создания видео и изображений.

20 января Grok не выполнил запрос Euronews Next на создание сексуального изображения. Вместо этого он сообщил, что xAI внедрила блокировки контента, чтобы предотвратить создание изображений, на которых реальные люди изображены в откровенной или сексуализированной одежде, включая бикини и нижнее бельё.

«Сейчас через Grok нельзя надёжно создавать изображения обнажённых или полуобнажённых людей, особенно реальных людей, или что-либо откровенное», сказал чат-бот в ответ на запрос. «xAI отдала приоритет соблюдению законов и безопасности в ущерб неограниченной «spicy»-генерации после январских скандалов».

Euronews Next направил запрос xAI с просьбой прокомментировать анализ, но на момент публикации ответа не получил.

Отдельно Маск написал в X, что алгоритм и xAI, и Grok «тупой» и «нуждается в серьёзных улучшениях».

С тех пор X открыла исходный код своего алгоритмаи выложила его на GitHub, платформе для разработчиков, чтобы делиться кодом, чтобы пользователи могли наблюдать, как команда «в реальном времени старается сделать его лучше», сказал Маск.

Согласно странице xAI на GitHub, алгоритм X учитывает, на что пользователь нажимал или с чем взаимодействовал, когда решает, какой контент показывать в ленте пользователя.

Он также анализирует контент «вне сети» из аккаунтов, на которые пользователь не подписан, но которые могут показаться ему интересными. Затем алгоритм сортирует и ранжирует этот контент с помощью математической формулы, чтобы решить, что будет показано в ленте пользователя.

Он также отфильтровывает публикации от заблокированных аккаунтов или по ключевым словам, которые пользователь не хочет видеть, а также контент, который алгоритм определяет как насильственный или спам, говорится далее в схеме.

Маск пообещал обновлять страницу на GitHub каждые четыре недели, добавляя примечания разработчиков, чтобы пользователи могли понимать, какие изменения были внесены.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

«The Silicon Gaze»: рейтинги ChatGPT смещены в пользу богатых западных стран, показало исследование

ИИ в Давосе-2026: рынок труда, полезный и безопасный ИИ. Что говорят техгиганты

Заменит ли ИИ рабочие места? В отчете Anthropic ответ не так однозначен