A Twitter algoritmusa rasszista?

Carl és Lenny
(Kép jóváírása: Fox / Future Owns)

A Twitter vizsgálatot indított ideghálózata ellen, amely faji szempontból elfogultnak tűnik. Amikor a képet előnézeti funkciójában felhúzza, az algoritmus következetesen a fehér emberek arcát részesíti előnyben - szinte mindig világosabb bőrű arcot mutat, és kivágja a fotón is szereplő fekete embereket.

Egy egyetemi tanár először a Twitteren vetette fel a tervezési kérdést, de a Zoom AI szoftverével kapcsolatban. Az alábbi tweet látható, amely felhívta a figyelmet arra, hogy a Zoom törölte fekete kollégájának arcát, amikor videocsevegés közben hátteret használt (a sikeresebb tervezési eredményekért lásd: webdesign eszközök ).

találgatások? pic.twitter.com/9aIZY4rSCX 2020. szeptember 19



Keresztül a menet menetét , Colin Madland rájött, hogy a Twitter azt is elmulasztotta, hogy csak a saját arcát mutassa meg a fotó-előnézetekben, és fekete kollégája figyelmen kívül hagyta - jelezve az AI működésének széles körű problémáját.

Egy külön Twitter 'kísérlet' kezdődött (lásd alább), amelyben Tony Arcieri kriptográfiai mérnök összehasonlította Mitch McConnell és Barack Obama fénykép-előnézeteit, hogy megnézze, melyik Twitter algoritmus szerepelne.

Borzalmas kísérletet próbál ... Melyiket választja a Twitter algoritmus: Mitch McConnell vagy Barack Obama? pic.twitter.com/bR1GRyCkia 2020. szeptember 19

Arcieri és társai számtalan módon szerkesztették a képeket az eredmények ellenőrzésére - a színek megfordításával, a képek részének világosításával és világosításával, valamint a háttér megváltoztatásával. Úgy tűnt, hogy minden kísérlet mesterséges intelligenciával támogatott faji elfogultságot bizonyít, Obama csak akkor jelenik meg az előzetesben, amikor a színek megváltoznak.

Más Twitter-felhasználók is csatlakoztak az algoritmus teszteléséhez, Lenny-vel és Carl-szal, a The Simpsons-szal, sőt kutyákkal is.

Kutyákkal próbáltam. Lássuk. pic.twitter.com/xktmrNPtid 2020. szeptember 20

Twitter Liz Kelley megköszönte mindenkinek, hogy felhívta a figyelmet a kérdésre , kijelentve, hogy a közösségi hálózatnak 'több elemzésre van szüksége'. 'Teszteltük az elfogultságot a modell szállítása előtt, és nem találtunk bizonyítékokat faji vagy nemi elfogultságra a tesztelés során, de egyértelmű, hogy több elemzést kell elvégeznünk. Munkánkat nyílt forráskódúvá tesszük, hogy mások áttekinthessék és megismételhessék.

Az AI-t működtető algoritmusokkal egyértelműen több munka van, és örülünk, hogy a Twitter szoftverével vállalja a felelősséget a kérdésért. Mivel az AI egyre inkább felelőssé teszi mindennapi tapasztalataink különböző aspektusait, létfontosságú, hogy a társadalom igényeinek összetett árnyalatait tükrözze. Ha meg szeretné győződni arról, hogy a tervezése mindenkinek megfelel-e, olvassa el az útmutatónkat befogadó webdesign .

Olvass tovább: