Искусственный интеллект: новая угроза безопасности персональных данных

В ежегодном отчёте о состоянии свободы слова в Сети эксперты Freedom House отметили, что в 2023 году к традиционным угрозам добавились риски, связанные с использованием ИИ. При отсутствии грамотного и этичного подхода многофункциональная технология может стать настоящим оружием в руках власти и корпораций. Уже сегодня мы столкнулись с тем, что ИИ используют в кампаниях по дезинформации, для сбора персональных сведений и усиления цензуры. При этом невозможно отрицать, что ИИ играет важную роль в развитии многих отраслей и может стать незаменимым помощником для людей.

В этом материале редакция Factcheck.kz разбирается, чем ИИ угрожает цифровой безопасности, и как в мире пытаются бороться с этим.

Опасения пользователей

Около месяца назад более половины участников (65%) глобального опроса компании McKinsey заявили, что их организации регулярно используют ИИ в работе. Этот показатель увеличился в 2 раза в сравнении с прошлым исследованием, проведённым всего 10 месяцев назад. Неудивительно, что с такой скоростью интеграции, ожидаемый годовой темп роста индустрии искусственного интеллекта с 2024 по 2030 год составляет 37,3%.

Однако далеко не все пользователи рады столь быстрому и повсеместному внедрению технологии будущего. Pew Research Center решил выяснить, какие эмоции испытывают жители США в отношении искусственного интеллекта. Широким распространением ИИ скорее обеспокоены нежели воодушевлены 52% опрошенных. В ещё одном исследовании уже от OnePoll 41% респондентов выразил обеспокоенность внедрением ИИ в бизнес.

Pew Research Center отмечает, что количество испытывающих тревожность, выросло на 14% в сравнении с декабрём 2022 года. Аналитики подчёркивают особую неуверенность пользователей в сегменте конфиденциальности и ИИ — 53% опрошенных считают, что ИИ скорей наносит вред безопасности личных данных.

Что касается европейских стран, то на волне обсуждений регулирования ИИ Европейский центр некоммерческого права (ЕС ECNL) заказал опрос в 12 государствах.

Искусственный интеллект: новая угроза безопасности персональных данных
Вопрос в заголовке: Говоря о ваших правах и свободах, включая право на частную жизнь, насколько вы обеспокоены использованием искусственного интеллекта в каждой из следующих сфер жизни общества?

Речь шла о конкретных областях применения и, как видим, практически во всех сферах, в среднем около половины респондентов обеспокоены применением ИИ. Лишь в случае с борьбой с преступностью и домашним хозяйством (3 и 4 позиции) обеспокоенность несколько ниже, и всё же она присутствует.

Тем временем в Казахстане эксперты Kursiv.Research выявили более оптимистичные настроения: негативные эмоции (сомнение, страх, раздражение, гнев) в отношении ИИ высказали 22,1% опрошенных, в то время как положительные (удивление, оптимизм, радость) — 49,2%. Однако здесь есть одна интересная деталь. В своём отчёте Kursiv.Research указывает, что более половины (53,5%) опрошенных вообще не слышали об ИИ, 64,2% им однозначно не интересуются и 29,6% искусственный интеллект безразличен. Возможно это подтверждает наблюдение Pew Research Center того, что тревога напрямую связана с уровнем осведомлённости граждан.

Есть о чём переживать? 

Не так давно компания Apple сообщила о предстоящем внедрении генеративного искусственного интеллекта в свои устройства. Уже в конце этого года ожидается интеграция ChatGPT от OpenAI с помощником Siri. В ответ на это Илон Маск заявил, что в случае реализации планов Apple, он запретит использование девайсов в своих компаниях.

Маск известен своей критикой машинного интеллекта. Ранее он уже подписал открытое письмо с призывом к разработчикам ИИ взять шестимесячную паузу в работе для решения проблем этики и безопасности. Интересно, что его точку зрения поддерживают многие видные представители рынка инноваций. Но насколько это обосновано?

27 февраля 2020 года начала работу OECD AI Policy Observatory – аналитическая платформа ОЭСР по мониторингу развития ИИ. AIPO фиксирует значительное увеличения количества инцидентов, связанных с искусственным интеллектом в 2023-2024 гг. Основная часть из них связана с цифровой безопасностью.

Искусственный интеллект: новая угроза безопасности персональных данных

На фоне этого противники ИИ может быть и преувеличивают в выражениях, но в целом их обеспокоенность понятна.

Сбор и утечка персональных сведений

Известно, что для обучения и работы ИИ требуется огромный массив данных: от изображений до текстов. К сожалению, сбор этих сведений не всегда соответствует этическим нормам.

Так один из первых стартапов по распознаванию лиц Clearview AI годами собирал миллиарды изображений из социальных сетей (1, 2), за что стал фигурантом многочисленных исков (1, 2). Доступ к огромной и не совсем законно собранной базе Clearview AI предоставляла правоохранительным органам многих стран, государственным ведомствам, а также готова была сотрудничать с частными организациям. При этом, помимо вмешательства в частную жизнь пользователей социальных сетей, Clearview AI допустила утечку данных своих же клиентов.

Не смогла избежать проблем с потерей информации и OpenAI. В марте 2023 года компания сообщила об утечке сведений пользователей ChatGPT. Чуть позже Garante (итальянский административный орган по защите данных) обвинил OpenAI в незаконном сборе личной информации и отсутствии механизма проверки возраста несовершеннолетних. Из-за нарушений GDPR (общий регламент ЕС по защите данных) ChatGPT был временно заблокирован на территории Италии.

Дискриминация и ложные обвинения

В то время как до сих пор нет чётких решений по безопасности личных данных, ИИ становится доступно всё больше персональных данных. Во время выступления на экспертной встрече «Artificial Intelligence: Development and Regulation in Kazakhstan» директор DRC Qazaqstan Дана Утеген рассказала о том, что ИИ уже работает не только с привычными данными, но и с более чувствительными.

В целом, во многих государствах уже используются технологии искусственного интеллекта и в контексте используются не только персональные данные, как привыкли. То есть это ФИО, адрес, IP-адрес и другие идентификаторы. Но есть более чувствительная категория данных, которая включает биометрические, биологические признаки субъекта. То есть это распознавание лица, это сетчатка глаза, это отпечатки пальцев.

Дана Утеген

Если коротко, то есть две основные технологии распознавания лиц: сопоставление и анализ. Чаще используется первый метод — сопоставление или Face Match.

Face Match — это биометрическая технология, которая сравнивает два разных изображения, чтобы определить, совпадают ли черты лица объекта. Этот метод находит широкое применение в процессах регистрации пользователей и проверки личности.

Несмотря на то, что алгоритм применяют правоохранительные органы и другие государственные структуры, он известен множеством ошибок, которые ко всему прочему имеют признаки дискриминации. Так, по словам Даны Утеген, некоторые страны Европейского союза применяли дискриминационную меру в отношении лиц, которые не являются гражданами ЕС, в т.ч. в отношении беженцев.

Ещё в 2019 году исследование Национального института стандартов и технологий США (NIST) показало, что многие алгоритмы допускают ошибки при идентификации афроамериканцев и азиатов. Более высокий уровень ошибочных результатов зафиксирован при распознавании лиц афроамериканских женщин. Ещё одна группа экспертов обнаружила, что ПО от многих крупных поставщиков даёт неверный результат при проверке людей, которые не являются цисгендерными.

Известны также случаи, когда неточности в работе ПО приводили к ложным обвинениям и арестам (1, 2).

Слежка и преследования

Международная некоммерческая организация по защите цифровых прав Фонд электронных рубежей (EFF) последовательно выступает (1, 2) против использования технологии распознавания лиц правоохранительными органами и другими государственными структурами. Эксперты считают, что в руках власти инструмент представляет неизбежную угрозу конфиденциальности, справедливости и свободе выражения. В частности, Фонд указывает на особые риски для активистов, демонстрантов и информаторов.

Один из ярких примеров отлаженной работы устройств видеонаблюдения и идентификации можно наблюдать в России. Ещё в 2020 году оппозиционные политики Владимир Милов и Алёна Попова обжаловали применение технологии распознавания лиц. По их мнению, на митинге 29 сентября 2019 года в Москве методика впервые была применена массово, что нарушает закон о защите персональных данных. Полиция и мэрия подтвердили факт, сославшись на то, что они действовали в соответствии с законом.

Как выяснилось, обширная сеть оборудования для идентификации внедрена в России с осени 2020 года. Схема включает камеры в метро, а также городское видеонаблюдение. Примечательно, что систему можно использовать по разному: загрузить фотографию и понять, где человек бывал или, наоборот, отследить маршрут конкретного гражданина и установить его личность. Проект «ОВД-Инфо» считает, что именно эти методики правоохранители задействовали при задержании 43 человек в московском метро в июне 2022 года. Среди задержанных оказались журналисты и активисты. 

Недавно экс-сотрудник Amazon Чарльз Форрест заявил, что Amazon в 2020 году заключил сделку с российской компанией VisionLabs на предоставление ей доступа к технологии распознавания лиц. После вторжения России в Украину на РФ были наложены санкции, однако, по словам Форреста, поставки Amazon Recognition для российских спецслужб не были прекращены.

В Казахстане действует НСВМ — Национальная система видеомониторинга. Она представляет собой совокупность программных и технических средств, осуществляющих сбор, обработку и хранение видеоизображений для решения задач обеспечения национальной безопасности и общественного правопорядка. К НСВМ подключены три группы объектов. Основными получателями сведений являются специальные государственные органы и органы внутренних дел, а также иные госорганы в случаях, установленных законами Республики Казахстан.

Отметим, что, в открытом доступе можно найти довольно противоречивую информацию о том, является ли Казахстан пользователем систем распознавания лиц.

Что будет дальше

Несмотря на высокий уровень беспокойства, 65% участников исследования Forbes Advisor ответили, что продолжают доверять компаниям, которые внедряют машинный интеллект.

При этом, судя по другим опросам (1, 2, 3), граждане доверяют урегулирование в области искусственного интеллекта властям.

Многие правительства уже делают шаги в сторону законодательных норм, а Европейский союз принял первый в мире закон об ИИ, который сегодня называют знаковым, предполагая, что именно он станет отправной точкой для новой модели регулирования, основанной на технологиях. Следить за многочисленными изменениями в правовом поле можно на платформе OECD.AI и AI Watch.

Американская маркетинговая компания Authority Hacker составила мировую карту прогресса регулирования искусственного интеллекта. Проанализировав инициативы 195 стран, специалисты пришли к выводу, что уже 2/3 из них либо приняли комплексные правила, либо занимаются их подготовкой.

Искусственный интеллект: новая угроза безопасности персональных данных

Казахстан, по оценке Authority Hacker, находится на начальном этапе работы с законодательной базой по ИИ. Действительно, в стране пока есть только проект Концепции развития искусственного интеллекта на 2024-2029 годы, в которой заявлено о создании по комиссии по регулированию искусственного интеллекта.

Журналист, сценарист. Изучала политическую журналистику.

Factcheck.kz