Настоящая опасность искусственного интеллекта - это не то, о чем мы думаем
Привет. Сегодня многих исследователей в области искусственного интеллекта особенно интересуют две темы: 1. как сделать, чтобы решения, принимаемые AI, были уважительны к культурным ценностям общества, и 2. как интегрировать AI в сферу образования.
Вот несколько идей, выдвигаемых исследователями на сегодняшний день.
AI может нанести вред (даже если он не предназначен для этого)
Развитие технологии искусственного интеллекта приносит много преимуществ в таких областях, как образование, здравоохранение, СМИ, государственное управление и других. Но также он может причинить вред и проявлять дискриминацию.
Это отклоняющее поведение может произойти по следующим причинам:
- Использование предвзятых или некачественных данных для обучения моделей;
- Плохо определенные правила;
- Использование его вне контекста;
- Создание циклов обратной связи;
Solid Bomb Gold компания по выпуску футболок, которая использовала AI для генерации фраз для печати на своих изделиях. Одна из фраз, созданная его алгоритмом, была «Keep Calm and Rape Lot» (Оставайся спокойным и насилуй много). Это, конечно, вызвало сильное негодование общественности. Поэтому Amazon забанил компанию, как продавца, и она прекратила поставки таких футболок.
Алгоритм не был предназначен для создания такого рода оскорбительного контента. Но тот, кто его разработал, решил просто выбрать любую фразу из списка. И этот список содержал слово «изнасилование». У них были плохие данные и плохо определенные правила.
Nikon запустил функцию, которая предупреждает фотографа, когда кто-то моргнул при съемке. Некоторые люди стали сообщать, что алгоритм обнаружил ложные моргания на фотографиях людей азиатской национальности.
Хотя это японская компания, она, по-видимому, использовала предвзятые учебные данные в своих алгоритмах. Если алгоритм был разработан за пределами Азии, но развернут во всем мире, он также не имеет регионального контекста.
Был такой фильм «Отчет о меньшинствах». В этом фильме машины предсказывали, где и когда произойдет преступление, чтобы полиция могла его предвидеть.
Это происходит прямо сейчас. Существует компания под названием PredPol, которая использует искусственный интеллект, чтобы предсказать, где с наибольшей вероятностью может произойти преступление, что позволяет полиции эффективней использовать свои ресурсы патрулирования.
Данные, используемые компанией для подготовки своей модели, относятся к преступлениям, зафиксированным полицией. Но не у всех уголовных преступлений есть одинаковая вероятность того, что они будут зарегистрированы полицией. Преступления, совершенные в районах, которые подвергаются более частому патрулированию со стороны полиции, чаще регистрируются.
Это может вызвать цикл обратной связи, который укрепляет полицию в уверенности о необходимости продолжения патрулирования в тех же самых районах. Они используют предвзятые данные и создают петли обратной связи.
Так что да! Даже если AI не предназначен для прямого причинения вреда, он может создавать вредные или дискриминационные ситуации.
AI может учиться быть справедливым (и учиться лучше людей)
Нелегко определить, что справедливо, а что нет. Это включает в себя культурные аспекты, оценочное суждение и разные точки зрения.
Но есть ситуации, по которым у нас есть общественный консенсус относительно этических и моральных аспектов, AI может учиться на таких ситуациях.
AI работает, изучая, как лучше использовать переменные для достижения целевой функции. Мы можем улучшить это "чувство" у AI, переведя наши суждения о справедливости либо в объективные функции, либо в ограничения переменных.
Если мы намеренно преподаем концепции справедливости для AI, он будет использовать их лучше, чем люди, потому что он намного эффективнее нас в вопросе соблюдения формальных правил.
Например, бразильская неправительственная организация Desabafo Social создала кампанию, демонстрирующую, как механизмы поиска изображений, такие как Shutterstock и Google, дискриминируют пользователей. Это яркий пример того, как предвзятость и дискриминация невидимо воспроизводятся в цифровом мире.
Если вы ищете «ребенка» в Shutterstock, вы сможете увидеть только белых младенцев.
Эта поисковая система не отражает характеристику нашего населения. Но его можно научить этому.
Если мы ставим «отражать разнообразие населения» в качестве одной из своих целей, он может использовать огромный объем данных, чтобы гарантировать его репрезентативность в отношении расовых и культурных отличий.
Машины могут делать это намного эффективнее, чем люди.
Таким образом, AI является дискриминационным, потому что он узнал об этом от людей. Но такая ситуация не обязательна, ее можно исправить.
AI заставляет нас пересмотреть этические и моральные принципы
Как мы видели ранее, AI пытается оптимизировать переменные для достижения конкретной цели.
Процесс его "мышления" о способах достижения поставленных целей поднимает этические и моральные вопросы, которые сегодня снова стали актуальными в связи с бурным развитием технологии.
Другие вопросы являются новыми и возникают из новых возможностей AI.
Майкл Сандель в 1905 году впервые сформулировал моральную дилемму под названием Трамвайная проблема.
Это мысленный эксперимент по этике. Представьте, что вы водитель трамвая. На рельсах, лежат пять связанных человек. Трамвай двигается на них, но есть возможность перевести стрелку и поехать в сторону по другим рельсам, но там лежит один связанный человек. У вас есть два варианта: 1. Ничего не делать, и трамвай убивает пятерых людей. 2. Перевести стрелки и трамвай бьет одного человека.
С этой же проблемой сталкиваются инженеры автономных транспортных средств, которым необходимо решить, следует ли устанавливать приоритеты в отношении жизни людей внутри или вне транспортного средства.
Нет такой вещи, как нейтральность AI
Когда мы взаимодействуем с AI, наша жизнь меняется.
Например, если мы используем Карты Google, чтобы найти самый короткий путь к чему-то, нам больше не нужно спрашивать людей на улице. Это изменяет наши отношения с городской средой, когда мы путешествуем.
Отношения между детьми подвержены влиянию их отношениями с голосовыми помощниками, такими, как Сири, а Алекса - и это обоюдоострый меч. Они становятся более любопытными, так как могут спросить что угодно в любое время. Но родители замечают, что дети становятся менее вежливыми.
Вам не нужно использовать слова «пожалуйста» и «спасибо» при общении с персональными AI помощникам, и это изменяет то, как дети учатся взаимодействовать с миром.
«Алгоритмы не нейтральны. Если мы изменим алгоритм, мы изменим реальность»
Тем не менее, инженеры AI могут изменить это, программируя помощников, чтобы отвечать: «Эй, вы должны использовать волшебное слово!», когда вопрос задан грубо.
Это дает нам возможность создавать целевые установки в рамках AI.
Таким образом, хотя AI не может быть нейтральным, он может быть инструментом формирования желательного поведения в обществе.
Вместо того, чтобы искать нейтралитет, мы должны стремиться к прозрачной интенциональности.
AI нуждается в разнообразии для достижения успеха
Алгоритмы AI всегда будут иметь точку зрения их создателей. Таким образом, лучший способ обеспечить успех AI- способствовать разнообразию в этой области.
Если у нас есть разработчики AI разных национальностей и культур, алгоритмы будут тиражировать это разнообразие.
Для этого необходимо увеличить доступ к процессу обучения в сфере AI. Необходимо гарантировать, что разные группы людей имеют доступ к этим знаниям.
Кэтлин Симиню - ученый из Кении, который организует обучение женщин в области машинного обучения и науки о данных. Этот проект играет жизненно важную роль в увеличении разнообразия AI инженеров.
Действия в этом направлении могут повысить осведомленность общества о существующих рисках и стать первым шагом к созданию более справедливого и инклюзивного искусственного интеллекта.