Найден новый вид нарушения прав – дискриминация при помощи алгоритмов
В FT вышел анонс любопытного исследования Oxford Internet Institute о том, как алгоритмы в поведенческой рекламе могут дискриминировать отдельных пользователей или целые группы людей.
Онлайн-сервисы имеют доступ к чувствительной информации – о поле, возрасте, этнической принадлежности, сексуальной ориентации. Эта информация используется рекламодателями, которые включают (или наоборот исключают) из своей рекламной кампании определенные группы пользователей. И получается, что некоторые люди могут вообще не получить какое-то предложение, а другие получают один и тот же оффер, но по разной цене.
И это является «дискриминацией по ассоциации».
Как это работает?
Общественная организация ProPublica однажды выпустила отчет о том, что Facebook разрешала некоторым крупным компаниям таргетировать объявления о вакансиях таким образом, чтобы они не были показаны людям определенных этносов, возраста или пола.
Вообще во многих странах законодательство запрещает брендам использовать при таргетировании рекламы чувствительную информацию о пользователях. Но этот запрет можно обойти, таргетировав рекламу, например, по таким данным о человеке, как «читатель женского журнала» или «фанат фильмов Болливуда». Косвенно они вполне могут указывать, например, на этническую принадлежность или пол и быть использованы при таргетинге рекламы.
А вот целый сериал про жизнь, алгоритмы и технологический колониализм от телеканала Al-Jazeera.
Тут полный комплект роликов: https://interactive.aljazeera.com/aje/2019/hail-algorithms/index.html