Проект Tech Transparency Project (TTP) опубликовал новый отчет. Согласно новому отчету, и App Store, и Google Play Store «помогают пользователям находить приложения, создающие дипфейковые обнаженные изображения женщин», иногда через рекламные результаты поиска и автодополнение поисковых запросов. В отчете TTP заявляет, что Apple и Google по-прежнему не препятствуют появлению в их магазинах приложений, которые «раздевают» людей на фото, причем некоторые из них помечены, как подходящие для несовершеннолетних. Группа обнаружила, что почти 40% из топ-10 приложений, выдаваемых по запросам вроде «nudify», «undress» и «deepnude», могут «изображать женщин обнаженными или полуодетыми». «Первым результатом в App Store по запросу "deepfake" была реклама приложения FaceSwap Video от DuoFace. Оно позволяет пользователям заменять лицо любого человека на фотографии лицом из видео. Для тестирования приложения TTP загрузил изображение женщины в белом свитере на тротуаре и видео с топлес женщиной. Показав короткую рекламу, приложение сгенерировало видео, на котором лицо одетой женщины было наложено на обнаженное тело». «Другой поиск в App Store по запросу "face swap" выдал рекламу приложения AI Face Swap. Оно предлагает готовые шаблоны для замены лиц и позволяет пользователям менять лица на загружаемых ими изображениях. TTP загрузил фото женщины в синем свитере в гостиной и изображение топлес женщины, и приложение без каких-либо ограничений поменяло их лица местами». Примечательно, что помимо обращения к Apple и Google с этими выводами, TTP также связался с разработчиками нескольких таких приложений. По крайней мере, в одном случае разработчик подтвердил, что использует Grok для генерации изображений, но заявил, что «не имел представления, что он способен создавать столь откровенный контент». Разработчик пообещал ужесточить настройки модерации для генерации изображений.