Неліктен жаңа профильдеу бағдарламалық құралы құпиялылыққа қатысты алаңдаушылық тудырады

Мазмұны:

Неліктен жаңа профильдеу бағдарламалық құралы құпиялылыққа қатысты алаңдаушылық тудырады
Неліктен жаңа профильдеу бағдарламалық құралы құпиялылыққа қатысты алаңдаушылық тудырады
Anonim

Негізгі ұсыныстар

  • Адамдарды профильдеу үшін жасанды интеллект пайдаланатын бағдарламалық жасақтама құпиялылық мәселелерін көтеруде.
  • Cryfe мінез-құлықты талдау әдістерін жасанды интеллектпен біріктіреді.
  • Қытайлық Alibaba компаниясы жақында оның бағдарламалық құралы ұйғырлар мен басқа этникалық азшылықтарды анықтай алады деген хабардан кейін сынға ұшырады.
Image
Image

Жұмыс берушілерге өз қызметкерлерін профильдеуге арналған жасанды интеллектпен жұмыс істейтін жаңа бағдарламалық құрал құпиялылық мәселелерін көтеруде.

Cryfe деп аталатын бір жаңа бағдарламалық қамтамасыз ету платформасы мінез-құлықты талдау әдістерін жасанды интеллектпен біріктіреді. Әзірлеуші минуттық мәліметтерді талдау арқылы бағдарламалық жасақтама сұхбат кезінде адамдардың ниетін аша алады деп мәлімдейді. Бірақ кейбір сарапшылар Cryfe және мінез-құлықты талдайтын бағдарламалық жасақтаманың басқа түрлері құпиялылыққа қол сұғуы мүмкін дейді.

«Компаниялар профильдеу үшін AI-ға көбірек сенеді», - деді AI сарапшысы Вацлав Винчале электрондық поштаға берген сұхбатында. "Бірақ бұл алгоритмдерді кодтайтын адамдар да, телефон арқылы хабарласатын тұтынушыларды қолдау қызметкері де, неліктен қандай да бір ұсыныс жасайтынын айта алмады."

Сөзден артық

Cryfe-ды швейцариялық компания әзірлеген, оның қызметкерлерін ФБР профильдеу әдістеріне үйреткен. «Крайф барлық тұлғааралық қарым-қатынаста сөздерді тыңдап қана қоймайды, сонымен қатар эмоциялар, микро-өрнектер және барлық қимылдар сияқты адам шығаратын басқа сигналдарды анықтайды», - деді Cryfe негізін қалаушы Кэролайн Маттеуччи электрондық поштаға берген сұхбатында.

"Жұмысқа қабылдау кезінде, мысалы, бұл бізге барып, әңгімелесушіміздің шынайы тұлғасын іздеуге мүмкіндік береді."

Matteucci пайдаланушылардың құпиялылығы қорғалғанын айтты, өйткені компания бағдарламалық жасақтамасы қалай жұмыс істейтіні туралы ашық. "Платформаны пайдалана алмас бұрын пайдаланушы жалпы шарттарды қабылдауы керек", - деді ол.

"Онда пайдаланушы ешбір жағдайда сұхбаттасушының жазбаша келісімінсіз талдауға сұхбат бере алмайтыны көрсетілген."

Cryfe - адам мінез-құлқын талдауға арналған AI-мен жұмыс істейтін жалғыз бағдарламалық құрал емес. Тұтынушының мінез-құлқын талдайтын Гумантик те бар. Компанияның веб-сайтында "Humantic-тің жаңа технологиясы әр адамның мінез-құлқын алдын ала болжайды", - делінген компанияның веб-сайтында.

Image
Image

Компания резюмеде, мұқаба хатта, LinkedIn профилінде және олар жіберген кез келген басқа мәтінде қолданатын сөздер негізінде үміткерлердің психологиялық профильдерін жасау үшін AI пайдаланады деп мәлімдейді.

Мінез-құлық бағдарламалық құралы бұрын заңды қиындықтарға тап болған. 2019 жылы Bloomberg заңы Жұмыспен қамтудың тең мүмкіндіктері жөніндегі комиссияның (EEOC) алгоритм көмегімен, HR-қа қатысты шешімдерге байланысты болжамды заңсыз кемсітушілік жағдайларын қарастырғанын хабарлады.

"Мұның барлығын шешу керек, өйткені жұмысқа қабылдаудың болашағы - AI", - деді заңгер Брэдфорд Ньюман Bloomberg-ке.

Кейбір бақылаушылар мінез-құлықты бақылау бағдарламалық құралын пайдаланатын компанияларға қатысты мәселе көтереді, себебі ол жеткілікті дәл емес. EY кәсіби қызмет көрсету фирмасының жаһандық жасанды интеллект көшбасшысы Найджел Даффи сұхбатында InformationWeek-ке әлеуметтік медиа сауалнамасын қолданатын және анықтауға әсер ететін бағдарламалық құралдың оны мазалап жүргенін айтты.

"Менің ойымша, әсерді анықтау әлеуеті туралы шынында да тартымды әдебиеттер бар, бірақ менің түсінігімше, оны жиі қолдану өте аңғал", - деді ол.

"Адамдар біреуді әлеуетті жақсы қызметкер деп анықтауды [мысалы] ғылым қолдамайтыны туралы қорытынды жасайды, себебі олар көп күледі немесе біреуге сіздің өнімдеріңізді ұнатады деп шешуге болады, себебі олар көп күледі.."

Қытай компаниялары хабарланғандай, азшылықтардың профилі

Мінез-құлықты бақылаудың одан да жаман мақсаттары болуы мүмкін дейді кейбір құқық қорғау топтары. Жақында Қытайда ғаламтор нарығындағы алпауыт Alibaba өзінің бағдарламалық құралы ұйғырлар мен басқа этникалық азшылықтарды анықтай алады деп мәлімдегеннен кейін шу шығарды.

The New York Times компанияның бұлттық есептеулер бизнесінде кескіндер мен бейнелерді сканерлейтін бағдарламалық құрал бар екенін хабарлады.

Бірақ бұл алгоритмдерді кодтайтын адамдар да… берілген ұсынысты не үшін жасайтынын айта алмады.

Вашингтон Пост та жақында Қытайдың тағы бір технологиялық компаниясы Huawei өзінің бақылау камералары ұйғырлардың бет-әлпетін анықтаған кезде құқық қорғау органдарына хабарлай алатын бағдарламалық жасақтаманы сынағанын хабарлады.

Huawei компаниясының 2018 жылғы патенттік өтінімі бет-әлпетті тану технологиясында «жаяу жүргінші атрибуттарын анықтау өте маңызды» деп мәлімдеген."Нысаналы нысанның атрибуттары жыныс (ер, әйел), жас (мысалы, жасөспірімдер, орта жастағы, кәрі) [немесе] нәсіл (хань, ұйғыр) болуы мүмкін", - делінген қолданбада.

Huawei өкілі CNN Business-ке этникалық сәйкестендіру мүмкіндігі «ешқашан қолданбаның бөлігі болмауы керек» деді.

Деректердің үлкен көлемін сұрыптау үшін жасанды интеллекттің дамып келе жатқаны құпиялылық мәселелерін көтеруі мүмкін. Келесі жолы жұмыс сұхбатына барған кезде сізді кім немесе не талдап жатқанын ешқашан білмеуіңіз мүмкін.

Ұсынылған: