Факты | В чём реальная опасность искусственного интеллекта

Новости об искусственном интеллекте — о достижениях, провалах и опасностях — появляются каждый день. Редакция Factcheck.kz также внимательно следит за развитием ИИ и активно экспериментирует с самыми громкими новинками в этой сфере.

Как и любое новое явление, к тому же не до конца понятное широкой публике, искусственный интеллект вызывает у многих тревогу и недоверие. Угрожает ли ИИ рабочим местам? Могут ли программы стать умнее своих создателей и устроить «восстание машин»? Эти страхи мы разбирали в статье о мифах об ИИ. В этой части редакция Factcheck.kz рассказывает, чем опасен ИИ на самом деле, и почему в большинстве случаев проблема — в нас самих.

Стоит отметить, что речь в этом материале пойдёт о реальных опасностях, которые искусственный интеллект представляет уже сегодня, а не о гипотетических вызовах, исходящих от пока несуществующего сильного ИИ.

Предвзятость

В первой части нашей статьи мы объясняли, почему ИИ не обладает разумом. У программ нет чувства справедливости, предпочтений и антипатий. Однако ИИ способен дискриминировать по полу, расе и социальному классу. И, по мнению специалистов из Массачусетского технологического института, эта предвзятость неискоренима — её можно минимизировать, но нельзя полностью исключить. Дело в том, что любой ИИ самообучается, но делает это на основе уже существующих данных, которые созданы людьми. И зачастую эти данные уже скомпрометированы и содержат предвзятые установки, которые веками существуют в человеческом обществе.

Одним из самых популярных примеров влияния человеческой предвзятости на работу ИИ — алгоритм, разработанный компанией Amazon для отбора наиболее подходящих резюме. Через некоторое время выяснилось, что, при прочих равных, программа отдавала предпочтение соискателям мужчинам. ИИ обучался на резюме успешных сотрудников компании, которых нанимали в течение десятилетия до появления программы. Из имеющихся данных программа «сделала вывод», что хороший кандидат — это кандидат мужского пола — и отклоняла резюме, в которых были слова «woman» и «women’s», а также упоминались некоторые женские колледжи. В результате Amazon пришлось отказаться от использования приложения вскоре после того, как оно начало работать. Хотя позже инструмент усовершенствовали с целью сделать его более гендерно нейтральным, невозможно было гарантировать, что он снова не станет принимать дискриминационные решения. В итоге компания полностью отказалась от внедрения этой разработки.

Дискриминационные паттерны по полу, возрасту, расе или месту прописки находили в работе искусственного интеллекта с самыми разными функциями: при распознавании лиц, построении маршрута, одобрении кредита и даже лечении. Пользователи соцсетей неоднократно отмечали, что алгоритмы «объективируют» женщин, помечая изображения женских тел как недопустимый контент.

Факты | В чём реальная опасность искусственного интеллекта
Фотография слева получила нейтральную оценку ИИ, а фото справа получило маркировку «непристойно», хотя на обоих снимках изображены люди в нижнем белье. Из-за этой маркировки алгоритм «показал» фото мужчин 655 пользователям, а фото женщин — только восьми. И дело не в лайках, количество просмотров может значительно влиять на малый бизнес, чьи владельцы ведут дело через соцсети, например дизайнеров одежды, фотографов и моделей.
Источник: The Guardian

При этом усилий технических специалистов бывает недостаточно, чтобы нейтрализовать предвзятость исходных данных. В нескольких случаях программам удавалось обходить «этические фильтры» или отсутствие прямых данных и находить информацию, на базе которой возможна дискриминация. Так исследование, опубликованное в журнале Lancet, показало, что ИИ, который получал анонимизированную медицинскую информацию, смог определить расу пациентов в 93% случаев.

Рейд Блэкман, специалист по цифровой этике, отмечает, что единственный способ создать этичный ИИ — не пытаться блокировать дискриминацию в уже созданном продукте, а предотвратить её в самом начале. Для этого Блэкман предлагает задействовать в разработке не только IT-специалистов, но и юристов, правозащитников, социологов и представителей уязвимых групп.

Авторские права

Ещё одна проблема, связанная с развитием технологий искусственного интеллекта состоит в том, кого считать создателем контента: разработчика, оператора или сам ИИ? Пока программы были исключительно инструментами творчества, сложности в вопросе авторства не возникало, однако с появлением таких ИИ как DALL-E и Midjourney в правовом поле появились серые зоны.

Специалисты из Всемирной организации интеллектуальной собственности считают, что один из возможных вариантов решения — определять творения ИИ как работы без авторства, свободные от копирайта. Законы многих стран поддерживают такой подход. Например, согласно закону «Об авторском праве и смежных правах» Республики Казахстан, автор — физическое лицо, творческим трудом которого создано произведение науки, литературы, искусства. Похожие положения существуют в России, США, Австралии и Европейском союзе. Однако, не имея доступа к авторским правам, компании которые вкладывают деньги в создание генеративного ИИ, могут потерять интерес к инвестированию: если вы не сможете владеть уникальными правами на произведение ИИ и продавать его, то какой смысл тратить деньги на разработку?

Другого подхода придерживаются в Индии, Ирландии, Новой Зеландии, Гонконге и Великобритании. По законам этих стран, авторские права на произведение, созданное программой без непосредственного участия человека, принадлежат разработчику программы.

Ещё один ракурс проблемы копирайта касается нарушений авторских прав со стороны ИИ. Как было сказано выше, искусственный интеллект обучается на больших массивах данных — текстах, изображениях, аудио — в зависимости от поставленных задач. Как правило, разработчики берут эти данные из открытых источников в интернете. Загвоздка в том, что, если у этих данных есть авторы, то их не спрашивают, согласны ли они предоставить своё творчество для обучения ИИ. Более того, авторы могу даже не знать о том, что их работы вообще были использованы для этих целей. Так многие художники и иллюстраторы были неприятно удивлены, узнав элементы своих рисунков в изображениях, которые сгенерировали такие программы как Midjourney или Stable Diffusion. Стоит ли говорить, что разработчики ИИ не делились прибылью с авторами и не выплачивали роялти.

Факты | В чём реальная опасность искусственного интеллекта
Картина, созданная искусственным интеллектом на базе 346 работ Рембрандта ван Рейна в рамках проекта The Next Rembrandt. Чтобы «написать» этот портрет, программа скомпилировала 168 263 фрагмента с картин голландского мастера.
Источник: Wikimedia

Другая грань этой проблемы — создание работ «в стиле» того или иного автора. В то время как одни — как музыкант Ник Кейв — считают, что ИИ способен производить только «жалкую пародию» на творчество, другие говорят о плагиате и подают в суд на IT компании. Так, иллюстраторка Сара Андерсен, концепт-художница Карла Ортиз и их коллеги судятся с компаниями Stability AI, Midjourney и DeviantArt из-за нелицензионного использования авторских изображений. В своём эссе для The New York Times Андерсен также выразила опасения относительно репутационного ущерба, который она понесет, если, например, пользователи ИИ решат сопроводить комиксы «в стиле Сары Андерсен» нацистскими высказываниями или лозунгами.

Помимо авторов, нарушениями авторских прав со стороны ИИ обеспокоены и стоковые сервисы — в январе сервис Getty Images заявил, что подаёт иск против разработчика Stability AI за нарушение копирайта и лицензионных соглашений в коммерческих интересах.

Фейки

От «галлюцинаций» ChatGPT до изображений, сгенерированных Midjourney — редакция Factcheck.kz уже не раз публиковала новости и разоблачения о фейках, созданных с помощью искусственного интеллекта (1, 2, 3, 4). И по мере развития ИИ таких новостей будет становиться всё больше, а отличить подделку от реальности — всё сложнее. Особую тревогу вызывают технологии, позволяющие создавать правдоподобные цифровые модели людей. Специализированные сайты продают сгенерированные изображения за небольшую плату. Предполагается, что покупатели будут использовать портреты для дизайна или рекламы без необходимости приобретать лицензии. Однако невозможно гарантировать, что эти «фото» не будут использовать тролли или мошенники для того, чтобы скрыть свою личность. Например, программы для генерации голоса уже широко используются для совершенствования мошеннических схем и вымогательства.

Ещё один тревожный вид фейков — вымышленные исторические события. Пользователи портала Reddit уже успешно создали несколько подобных историй: Синяя чума в СССР в 1970-х, Солнечный супершторм и массовые отключения электричества в Северной Америке и Каскадское землетрясение 2001 магнитудой 9,1. Хроника событий сопровождалась «репортажными снимками», созданными Midjourney, детальным описанием событий, вплоть до заявлений официальных лиц и подробной хронологией событий. Подделка получилась настолько правдоподобной, что некоторые пользователи даже не усомнились в её подлинности. Более того, по данным издания Forbes, программа по распознаванию фейковых изображений тоже не справилась с задачей. Журналист Мэтт Новак прогнал несколько изображений через Hugging Face AI Detector. Результаты, которые он получил, сложно назвать обнадёживающими.

Разумеется, сейчас достаточно легко развенчать подобные фейки, ведь авторы не пошли дальше создания постов на Reddit, а раз больше никакой информации об этих ложных катастрофах нет, источник «хроники» легко гуглится. Однако нельзя гарантировать, что в будущем заинтересованные лица не используют ИИ «репортажи» в корыстных целях. Например, серию «снимков» от Midjourney, на которых якобы изображена павильонная съёмка высадки американцев на Луну, могут использовать сторонники теорий заговора. А фото-фейк со взрывом в Пентагоне вызвал панику среди пользователей Сети, что привело к падению рынка акций.

Факты | В чём реальная опасность искусственного интеллекта
Фейковый снимок взрыва в штаб-квартире Министерства обороны США разоблачили в течение нескольких часов, однако за это время паника распространилась настолько широко, что привела к падению индекса 500 самых крупных американских компаний на 30 пунктов.
Источник: Mint

Вывод

Новые технологии создают невероятные возможности для работы и творчества, но одновременно несут с собой непредвиденные угрозы. Развитие искусственного интеллекта ставит перед человечеством задачи, ко многим из которых мы оказались не готовы и решение которых нам ещё только предстоит найти. Однако уже сейчас понятно, что основная опасность не в самих программах. По словам Ирэн Солайман, специалистки по цифровым правам и безопасности в компании Hugging Face, проблемы связанные с работой ИИ нельзя решить с помощью программирования, ведь дело не в том, что умеет искусственный интеллект, а в том, как мы решаем эти умения использовать.

лингвистка, фактчекерка

Factcheck.kz