Осторожно, пользователи! Сомнительные клоны ChatGPT снова пробираются в топы App Store
Исключительно для вас от Mosyle, единой платформы для Apple.
Мы заставляем устройства Apple работать.
Примерно два года назад невероятно популярный API GPT-4 от OpenAI подвергся мощным атакам.
Однако на этой неделе исследователь безопасности Алекс Клебер обнаружил, что один вводящий в заблуждение ИИ-чатбот, выдающий себя за продукт OpenAI, сумел занять первые позиции в категории «Бизнес».
Хотя это и произошло в менее популярном Mac App Store, инцидент всё равно является значительным и служит поводом для предупреждения о необходимости осторожно делиться личной информацией с подобными приложениями.
Чат-бот номер один в категории «Бизнес» для macOS, судя по всему, имитирует бренд OpenAI — от логотипа и названия до дизайна и логики.
Расследование показало, что его создатель — тот же разработчик, что выпустил другое, почти идентичное приложение.
Оба имеют схожие названия, идентичные интерфейсы и скриншоты, и даже ведут на один и тот же сайт поддержки, который представляет собой бесплатную страницу Google.
Они также числятся под одной учётной записью разработчика и компанией с адресом в Пакистане.
Несмотря на то, что Apple удалила большинство приложений-подражателей OpenAI, эти два прошли проверку и теперь находятся среди самых загружаемых в американском Mac App Store.
Само собой разумеется, что отзывы, рейтинг приложения или даже его допуск в магазин не обязательно гарантируют безопасность с точки зрения конфиденциальности данных.
Недавний отчет, опубликованный Private Internet Access, выявил тревожные примеры низкой прозрачности многих подобных приложений для личной продуктивности.
Один популярный ИИ-помощник, использовавший API ChatGPT, тихо собирал гораздо больше пользовательских данных, чем было указано в его описании в App Store.
В описании говорилось, что он собирает только сообщения и идентификаторы устройств для улучшения функциональности и управления аккаунтами.
Его же политика конфиденциальности показывала, что он также собирает имена, электронные письма, статистику использования и информацию об устройстве, которая часто в конечном итоге продаётся таким посредникам, как брокеры данных, или используется в неблаговидных целях.
Любое приложение-клон GPT, которое собирает пользовательские данные, привязанные к реальным именам, — это рецепт катастрофы.
Представьте себе огромный массив переписок, где каждое сообщение связано с конкретным человеком, хранящийся в сомнительной базе данных, управляемой компанией-однодневкой, с политикой конфиденциальности, сгенерированной ИИ, которая не имеет никакой юридической силы в стране их пребывания.
Это происходит где-то прямо сейчас.
Можно предположить, что именно для этого в App Store и были введены ярлыки конфиденциальности.
Хотя Apple представила их, чтобы помочь пользователям понять, какие данные собирает приложение и как их использует, эти ярлыки заполняются самими разработчиками. Apple полагается на их честность.
Разработчики могут приукрасить действительность, а у Apple нет системы для проверки этих данных.
Я считаю важным продолжать освещать эти проблемы.