Изображения, загруженные в чат-боты с ИИ, могут храниться неопределённо долго и, попав в чужие руки, привести к подмене личности, мошенничеству и созданию фейковых аккаунтов в соцсетях.
Мода на карикатуры, созданные искусственным интеллектом и демонстрирующие на одном ярком изображении все, что чат-бот знает о человеке, может представлять серьезную угрозу для безопасности, предупреждают эксперты по кибербезопасности.
Пользователи загружают свое фото, нередко с логотипом компании или указанием должности, и просят ChatGPT от OpenAI создать карикатуру на них и их работу, используя все, что чат-бот о них знает.
Эксперты по кибербезопасности рассказали Euronews Next, что подобные челленджи в соцсетях, в том числе с ИИ-карикатурами, могут стать для мошенников настоящей сокровищницей ценной информации. Одно изображение в сочетании с личными данными способно рассказать о человеке больше, чем он сам предполагает.
«Вы фактически выполняете работу мошенников, даете им наглядное представление о том, кто вы», говорит Боб Лонг, вице-президент компании Daon, занимающейся проверкой возраста пользователей.
По его словам, сама формулировка уже должна настораживать, потому что «звучит так, будто это намеренно запустил мошенник, желающий максимально упростить себе задачу».
Что происходит с изображениями после загрузки
Когда пользователь отправляет изображение в чат-боту с ИИ, система анализирует его, извлекая данные, например эмоции человека, обстановку или сведения, которые могут выдать местоположение, поясняет консультант по кибербезопасности Джейк Мур. Эта информация может храниться в системе неопределенное время.
По словам Лонга, собранные изображения могут использоваться и сохраняться для обучения генераторов изображений на основе ИИ как часть их наборов данных.
Утечка данных в компании вроде OpenAI может привести к тому, что конфиденциальная информация, загруженные изображения и персональные данные, собранные чат-ботом, окажется в руках злоумышленников и будет ими использована.
В чужих руках одного снимка в высоком разрешении достаточно, чтобы создать фальшивые аккаунты в соцсетях или реалистичные дипфейки на основе ИИ, которые затем могут использоваться в мошеннических схемах, говорит Шарлотта Уилсон, руководитель корпоративного направления из израильской компании Check Point, работающей в сфере кибербезопасности.
«Селфи позволяют преступникам перейти от массовых схем к персонализированному, максимально правдоподобному мошенничеству с подменой личности», отмечает она.
В разделе конфиденциальности OpenAI говорится, что загруженные изображения могут использоваться для улучшения модели, в том числе для ее обучения. Отвечая на вопрос о настройках конфиденциальности, ChatGPT уточнил, что это не означает помещение каждой фотографии в общедоступную базу.
По словам чат-бота, система использует не сами снимки, а закономерности в пользовательском контенте, чтобы точнее генерировать изображения.
Как обезопасить себя, если хотите участвовать в трендах с ИИ
Тем, кто все же хочет следовать тренду, эксперты советуют максимально ограничивать объем публикуемой информации.
Уилсон рекомендует не загружать снимки, на которых есть какие-либо идентифицирующие детали.
«Кадрируйте фото максимально тесно, оставляйте нейтральный фон и не показывайте бейджи, униформу, рабочие пропуска на шнурке, указания на место съемки или любые детали, связывающие вас с работодателем или привычным распорядком», советует она.
Она также предостерегает от излишней откровенности в самих запросах к чат-боту: не стоит указывать точное название должности, город проживания или работодателя.
Мур, в свою очередь, рекомендует перед участием в подобных активностях проверить настройки конфиденциальности, в том числе возможность запретить использование данных для обучения ИИ.
У OpenAI есть специальный портал конфиденциальности, где пользователи могут отказаться от использования своих данных для обучения, выбрав опцию «do not train on my content».
Пользователи также могут запретить обучение на основе текстовых диалогов с ChatGPT, отключив настройку «improve the model for everyone».
По законодательству ЕС пользователи имеют право требовать удаления своих персональных данных, собранных компанией. Однако OpenAI оговаривает, что может сохранить часть информации и после удаления для борьбы с мошенничеством, злоупотреблениями и угрозами безопасности.