Расовые предубеждения, обнаруженные в алгоритме обрезки фотографий в Twitter

Новости Twitter: расовые предубеждения

С сегодняшними технологиями наряду с социальной осведомленностью уже нельзя проявлять предвзятость в отношении продукта или услуги, независимо от того, преднамеренно это или нет. Вот почему на Twitter указывают пальцем после того, как его алгоритм обрезки изображений демонстрирует расовую предвзятость.

Есть ли в Твиттере расовые предубеждения?

Twitter изучает свой алгоритм обрезки изображений после того, как пользователи заметили, что черные лица не всегда отображаются при предварительном просмотре изображений в мобильной ОС, когда изображение показывает и Черное лицо, и белое лицо.

Twitter сообщил, что не обнаружил никаких доказательств расовой или гендерной предвзятости при тестировании своего алгоритма, но при этом понимает, что предстоит еще провести тестирование.

Технический специалист социальной сети Параг Агравал сказал, что модель кадрирования изображения была проанализирована при ее поставке, но понимает, что общественность помогает протестировать ее вживую. "Мне нравится этот публичный, открытый и строгий тест - и я хочу извлечь из него уроки", - сказал он.

Менеджер университета в Ванкувере Колин Мэдленд начал это предприятие с того, что заметил, что, когда он увеличивает масштаб изображения с черным коллегой, у другого человека исчезает голова. Казалось, что программа увидела более темную голову как часть фона, поэтому удалила ее.

Новости Twitter Расовый уклон Zoom

Мэдленд увидел более глубокую проблему, когда написал об этом в Твиттере. Он написал в Twitter, чтобы узнать, знает ли кто-нибудь, что происходит с исчезновением лица его коллеги. Однако, как только он опубликовал в Zoom фотографию, на которой были изображены и его лицо, и лицо его коллеги, Twitter обрезал фотографию, чтобы показать только Мэдленда, а не другого человека.

На Zoom он обнаружил, что может заставить появиться лицо Черного человека, если поместить белый шар за его голову, как будто этого было достаточно, чтобы отделить его от фона. Тем не менее, Twitter также обрезал это. Он кадрировал человека с отсутствующей головой, а также кадрировал изображение с головой, видимой перед земным шаром.

Главный дизайнер Twitter Дэнтли Дэвис считает, что проблема будет решена, если убрать волосы на лице и очки Мэдленда.

"Я знаю, что ты думаешь, что меня замочить - это весело, но меня это раздражает не меньше, чем всех остальных. Однако я могу это исправить, и я это сделаю, - сказал Дэвис. "Это на 100 процентов наша вина. Никто не должен говорить иначе ".

Пользователи Twitter проводили эксперименты, чтобы подтвердить теорию. Они обнаружили, что алгоритм предпочитает лидера большинства в Сенате США Митча МакКоннелла, а не бывшего президента США Барака Обамы. Даже на стоковой фотографии был показан белый мужчина, а не черный.

Twitter Not Alone

Новости Twitter Карта расовых предубеждений

Это не единичная ситуация с Twitter. То же самое произошло с Microsoft, IBM и Amazon с их системами распознавания лиц. Они не могли идентифицировать цветных людей так же хорошо, как белых.

Microsoft заявила, что предприняла шаги для исправления проблемы после того, как поняла, что система обучалась преимущественно с белыми лицами. Системе не было показано достаточное количество цветных людей, чтобы научиться правильно их определять. Позже Microsoft предложила регулировать распознавание лиц во избежание предвзятости.

IBM заявила, что запустит новую версию своего сервиса. Система Amazon Rekognition иногда даже идентифицирует черных женщин как чернокожих мужчин, но с белыми женщинами у нее нет такой проблемы.

Проблема, как указал Мэдленд в своем аккаунте в Twitter, заключается в том, что это не всегда так невинно, как собрание Zoom. Правоохранительные органы используют Rekognition. Эта система могла ошибочно идентифицировать людей и обвинять их в совершении преступления. И это само по себе преступление.

Изображение предоставлено: Twitter и общественное достояние Колина Мидленда