Интеграция генеративного ИИ в приложения для смартфонов, которыми мы пользуемся ежедневно, быстро набирает обороты. Однако специалисты считают, что пользователям стоит сбавить темп — вместе с удобством приходят и серьёзные риски для безопасности и конфиденциальности. Об этом пишет SecurityLab.
Издание пишет, что стоит только начать беседу с чат-ботом, как мы тут же забываем обо всех мерах предосторожности. Людям кажется, что они общаются с новым полезным другом, которому можно довериться и попросить о чем угодно. Но это всего лишь интерфейс огромной вычислительной инфраструктуры, в конечном счете финансируемой за счет рекламы и торговли данными.
После анонса Bard от Google, который вскоре трансформируется в Gemini, и множества новых приложений, Google попросила всех пользователей Android и iPhone быть максимально осторожными.
«Пожалуйста, не упоминайте в беседах конфиденциальную информацию или факты, которыми вы не хотели бы делиться ни с кем из проверяющих записи диалогов. Или с Google, которая может использовать эти сведения для улучшения собственных инструментов, сервисов и технологий машинного обучения», – предупреждают разработчики в официальном блоге.
К счастью, компания заверяет, что пока разговоры в Gemini Apps не будут использоваться для показа таргетированной рекламы, хотя в будущем все может измениться.
Реальная проблема заключается в том, что пользователи делятся весьма личной и конфиденциальной информацией с ИИ-помощником, помогающими писать деловые планы, презентации для продаж или даже шпаргалки для школы. Когда человек выходит из чата, вопросы, которые он задавал, и полученные ответы сохраняются во внутренних базах и потенциально могут быть просмотрены.
Такой масштаб сбора и использования данных вполне характерен для всего нового сектора генеративного ИИ в целом, пишет издание.
Контекст
- В конце декабря 2023 года в СМИ и пабликах в социальных сетях широко распространилась новость о «нападении робота» на одного из инженеров заводов Tesla. Factcheck.kz решил проверить правдивость этой информации.