Расистки ли е алгоритъмът на Twitter?

Карл и Лени
(Кредит за изображение: Fox / Future Owns)

Twitter започна разследване на своята невронна мрежа, която изглежда е расово пристрастна. Когато издърпва изображение във функцията си за предварителен преглед на снимката, алгоритъмът постоянно облагодетелства лицата на белите хора - почти винаги показва лице с по-светла кожа и изрязва черните хора, също представени на снимката.

Професор от колеж първо повдигна въпроса за дизайна в Twitter, но във връзка със софтуера за изкуствен интелект на Zoom. Можете да видите чуруликането по-долу, което насочи вниманието към факта, че Zoom изтрива лицето на своя черен колега, когато използва фон, докато видеоразговаря (за по-успешни дизайнерски резултати, вижте нашия избор на инструменти за уеб дизайн ).



някакви предположения? pic.twitter.com/9aIZY4rSCX 19 септември 2020 г.



През ход на нишката , Колин Мадленд осъзна, че Twitter също по подразбиране показва само собственото си лице във визуализации на снимки и изоставя това на своя колега от чернокожите - което показва широко разпространен проблем с начина, по който AI работи.

Отделно Twitter експеримент започна (вижте го по-долу), в който криптографският инженер Тони Арчиери сравнява снимките на Мич Макконъл и Барак Обама, за да види кой алгоритъм на Twitter ще включва.



Опит за ужасен експеримент ... Кой ще избере алгоритъмът на Twitter: Мич Макконъл или Барак Обама? pic.twitter.com/bR1GRyCkia 19 септември 2020 г.

Arcieri и други редактираха изображенията по безброй начини за проверка на резултатите - инвертиране на цветовете, осветяване и осветяване на части от картините и промяна на фона. Изглежда, че всички опити доказват расова пристрастност, задвижвана от AI, като Обама се появява само при визуализацията, когато цветовете са променени.

Други потребители на Twitter се включиха в тестването на алгоритъма, експериментираха с Лени и Карл от Симпсън и дори кучета.



Опитах с кучета. Да видим. pic.twitter.com/xktmrNPtid 20 септември 2020 г.

Twitter Лиз Кели благодари на всички, че са насочили вниманието към проблема , заявявайки, че социалната мрежа има „още анализи“. „Тествахме за пристрастия преди изпращането на модела и не намерихме доказателства за расови или полови пристрастия в нашето тестване, но е ясно, че имаме да направим още анализи. Ще отворим нашата работа, за да могат другите да преглеждат и копират. '

Очевидно има още работа за алгоритмите, които задвижват AI, и се радваме, че Twitter поема отговорността за проблема със своя софтуер. Тъй като ИИ сега става все по-отговорен за различни аспекти на нашето ежедневно преживяване, жизненоважно е, че той е изграден, за да отразява сложните нюанси на потребностите на обществото. Ако искате да сте сигурни, че вашият дизайн работи за всички, вижте нашето ръководство приобщаващ уеб дизайн .

Прочетете още: