Twitter алгоритмінің нәсілдік бейімділігі үлкенірек техникалық мәселеге нұсқайды

Мазмұны:

Twitter алгоритмінің нәсілдік бейімділігі үлкенірек техникалық мәселеге нұсқайды
Twitter алгоритмінің нәсілдік бейімділігі үлкенірек техникалық мәселеге нұсқайды
Anonim

Негізгі ұсыныстар

  • Twitter пайдаланушылардың кескінді алдын ала қарау бағдарламалық құралында нәсілдік бейімділік деп атайтын нәрселерді жоюға үміттенеді.
  • Техникалық алпауыттың шақыруы саланың әртүрлілік мәселелерін шешуі қажет мәдени есебі болуы мүмкін.
  • Технологияның әртүрлілігінің болмауы оның технологиялық жетістіктерінің тиімділігіне нұқсан келтіруде.
Image
Image

Твиттер суретті кесу алгоритмі технологиялық индустриядағы әртүрлілік мәселелері туралы көбірек әңгіме қозғаған тренд тақырыбына айналғаннан кейін оны зерттеуді бастайды.

Әлеуметтік желідегі жаңғырушы пайдаланушылар кескінді алдын ала қарау алгоритмінде нәсілдік көзқарасты анықтағаннан кейін тақырыптарға айналды. Бұл жаңалық Twitter қолданушысы Колин Мадленд платформаны Zoom компаниясының жасыл экран технологиясын пайдаланған қара түсті әріптестерін тани алмағанын айту үшін пайдаланғаннан кейін болды, бірақ үлкен ирониялық шоуда ол Twitter-дің кескінді қию алгоритмі дәл осылай әрекет етіп, қара беттердің басымдылығын жоғалтты.

Әрине, бұл кез келген азшылық үшін үлкен мәселе, бірақ менің ойымша, одан да кеңірек мәселе бар.

Басқа пайдаланушылар алгоритмде адамдардан мультфильм кейіпкерлеріне және тіпті иттерге дейін дәйекті түрде басымдық беретін ақ және ашық тері беттерін көрсететін вирустық твиттер сериясын тудыратын трендке қосылды. Бұл сәтсіздік техникалық саладағы азшылық топтарын үнемі есепке алмаған, техникалық жағына өтіп кеткен үлкен мәдени қозғалысты көрсетеді.

"Бұл азшылықтарды қорқынышты сезінеді, олар маңызды емес сияқты және оны одан да ауыр зиян келтіруі мүмкін басқа нәрселер үшін қолдануға болады", - Эрик Лэред-Миллер, университеттің информатика профессоры Массачусетс штаты телефонмен сұхбатында."Бағдарламалық құралды не үшін пайдалануға болатынын және болуы мүмкін барлық зияндарды шешкеннен кейін, біз олардың орын алу мүмкіндігін азайту жолдары туралы айта бастаймыз."

Хронологиядағы канарея

Twitter твиттерге ендірілген кескіндерді автоматты түрде қию үшін нейрондық желілерді пайдаланады. Алгоритм алдын ала қарау үшін беттерді анықтауы керек, бірақ оның ақ түсті ауытқуы бар сияқты. Компанияның өкілі Лиз Келли твиттерде барлық алаңдаушылыққа жауап берді.

Келли твиттерде былай деп жазды: "Мұны көтергендердің барлығына рахмет. Біз модельді жіберер алдында біржақтылықты тексердік және тестілеуімізде нәсілдік немесе гендерлік бейімділіктің дәлелдерін таппадық, бірақ бізде көбірек талдау бар екені анық. басқалар қарап шығуы және қайталауы үшін біз жұмысымыздың бастапқы көзін ашамыз."

«Жабайы жағдайда бетті тану технологиялары: Федералды кеңсеге шақыру» атты ақ мақаланың тең авторы, Learned-Miller - тұлғаға негізделген AI оқыту бағдарламалық қамтамасыз етудің шектен шығуы бойынша жетекші зерттеуші. Ол бірнеше жылдар бойы кескінді үйренуге арналған бағдарламалық құралдың ықтимал теріс әсерін талқылап келеді және бұл ауытқулар мүмкіндігінше азайтылатын шындықты құрудың маңыздылығы туралы айтты.

Бетті тану технологиясына арналған көптеген алгоритмдер деректерге арналған анықтамалық жинақтарды пайдаланады, олар көбінесе жаттығу жиындары деп аталады, олар кескінді оқыту бағдарламалық құралының әрекетін дәл реттеу үшін пайдаланылатын кескіндер жинағы болып табылады. Бұл, сайып келгенде, AI-ға беттердің кең ауқымын оңай тануға мүмкіндік береді. Дегенмен, бұл анықтамалық жинақтарда әртүрлі пул болмауы мүмкін, бұл Twitter ұжымында кездесетін мәселелер сияқты мәселелерге әкеледі.

"Әрине, бұл кез келген азшылық үшін үлкен мәселе, бірақ менің ойымша, одан да кеңірек мәселе бар", - деді Сэред-Миллер. "Бұл технология секторындағы әртүрліліктің болмауына және дұрыс пайдаланбауға және теріс пайдалануға бейім осындай қуатты бағдарламалық құралдың дұрыс қолданылуын көрсету үшін орталықтандырылған, реттеуші күштің қажеттілігіне қатысты."

Техникалық әртүрлілік жетіспейді

Twitter ең соңғы технологиялық компания болуы мүмкін, бірақ бұл жаңа мәселе емес. Технологиялық сала негізінен ақ түсті, үнемі ер адамдар басым өріс болып қала береді және зерттеушілер әртүрліліктің болмауы әзірленген бағдарламалық жасақтамадағы жүйелік, тарихи теңгерімсіздіктердің қайталануын тудыратынын анықтады.

Нью-Йорк университетінің AI Now институтының 2019 жылғы есебінде зерттеушілер қара нәсілділер елдегі жетекші технологиялық фирмалардағы жұмыс күшінің 6 пайыздан азын құрайтынын анықтады. Сол сияқты, әйелдер осы саладағы жұмысшылардың 26 пайызын ғана құрайды, бұл олардың 1960 жылғы үлесінен статистика төмен.

Бұл азшылықтарды маңызды емес сияқты қорқынышты сезінеді және оны одан да ауыр зиян келтіруі мүмкін басқа нәрселер үшін қолдануға болады.

Сырттай қарағанда, бұл өкілдік мәселелер қарапайым болып көрінуі мүмкін, бірақ іс жүзінде келтірілген зиян терең болуы мүмкін. AI Now институтының есебіндегі зерттеушілер бұл көбінесе ақ емес және еркек емес популяцияларды есепке алмайтын бағдарламалық жасақтамамен байланысты мәселелерге байланысты деп болжайды. Инфрақызыл сабын диспенсерлері күңгірт теріні анықтай алмаса да немесе Amazon компаниясының AI бағдарламалық жасақтамасы әйелдердің бет-әлпетін еркектердің бет-әлпетінен ажырата алмаса да, технологиялық индустриядағы әртүрлілікті шеше алмау технологияның әртүрлі әлеммен күресудегі сәтсіздігіне әкеледі.

"Мәселелерді ойластырмаған және бұл заттардың қалай зиян тигізетінін және олардың қаншалықты маңызды екенін түсінбейтін көптеген адамдар бар", - деді Миллер AI кескінін үйрену туралы. "Адамдардың саны азаяды деп үміттенемін!"

Ұсынылған: