Эмоцияларды оқуға арналған бағдарламалық құрал неге сіздің жеке өміріңізді бұзуы мүмкін?

Мазмұны:

Эмоцияларды оқуға арналған бағдарламалық құрал неге сіздің жеке өміріңізді бұзуы мүмкін?
Эмоцияларды оқуға арналған бағдарламалық құрал неге сіздің жеке өміріңізді бұзуы мүмкін?
Anonim

Негізгі ұсыныстар

  • Zoom пайдаланушының көңіл-күйін немесе қатысу деңгейін бағалау үшін AI қолданатынын айтты.
  • Құқық қорғау топтары Zoom-тан құпиялылық пен деректер қауіпсіздігіне байланысты жоспарын қайта қарауды сұрайды.
  • Кейбір компаниялар сұхбат кезінде пайдаланушының назар аударып жатқанын бағалау үшін эмоцияларды анықтайтын бағдарламалық құралды да пайдаланады.
Image
Image

Адамның эмоцияларын бақылау үшін жасанды интеллектті (AI) пайдаланудың өсуі жеке өмірге қатысты алаңдаушылық туғызуда.

Құқық қорғау ұйымдары Zoom-тан бейнеконференция бағдарламасына эмоцияны талдайтын AI енгізу жоспарын бәсеңдетуді сұрайды. Компания AI-ны пайдаланушының көңіл-күйін немесе қатысу деңгейін бағалау үшін қолданатынын айтты.

«Сарапшылар эмоцияларды талдау жұмыс істемейтінін мойындайды», - деп жазды құқық қорғау топтарының консорциумы, соның ішінде ACLU, Zoom-қа жазған хатында. "Бет әлпеттері көбінесе астындағы эмоциялардан ажыратылады және зерттеулер кейде тіпті адамдар басқалардың эмоцияларын дәл оқи немесе өлшей алмайтынын анықтады. Бұл құралды жасау жалған ғылымға сенімділік қосады және сіздің беделіңізге қауіп төндіреді."

Zoom қызметі Lifewire-тің пікір сұрауына бірден жауап бермеді.

Эмоцияларыңызды бақылау

Протокол мақаласына сәйкес, Q for Sales деп аталатын Zoom бақылау жүйесі пайдаланушылардың сөйлесу уақытының арақатынасын, жауап беру уақытының кешігуін және адамның қаншалықты белсенді екенін бақылау үшін динамиктің жиі өзгеруін тексереді. Масштабтау бұл деректерді нөл мен 100 арасындағы ұпайларды тағайындау үшін пайдаланады, ал жоғары ұпайлар жоғары қатысуды немесе көңіл-күйді көрсетеді.

Құқық қорғау топтары бағдарламалық жасақтама мүмкіндігі шектеулі адамдарды немесе белгілі бір этникалық топтарды кемсітуі мүмкін деп мәлімдейді, бұл қарым-қатынас жасау үшін барлығы бірдей бет әлпетін, дауыс үлгісін және дене тілін пайдаланады деп есептейді. Топтар сонымен қатар бағдарламалық құрал деректер қауіпсіздігіне қауіп төндіруі мүмкін деп болжайды.

Image
Image

"Терең жеке деректерді жинау осы технологияны пайдаланатын кез келген ұйымды мемлекеттік органдар мен зиянды хакерлерді аңду үшін нысанаға айналдыруы мүмкін", - делінген хатта.

Джулия Стоянович, Нью-Йорк университетінің информатика және инженерия профессоры, Lifewire-ке электронды пошта арқылы берген сұхбатында эмоцияны анықтаудың артындағы мәлімдемелерге күмәнмен қарайтынын айтты.

"Мен мұндай технологияның қалай жұмыс істейтінін түсінбеймін - адамдардың эмоционалды көрінісі өте жеке, өте мәдениетке тәуелді және өте контекстке тән", - деді Стоянович."Бірақ, мүмкін, одан да маңыздысы, мен бұл құралдардың неліктен жұмыс істегенін қалайтынымызды түсінбеймін. Басқаша айтқанда, егер олар жақсы жұмыс істесе, біз одан да көп қиындықтарға тап болар едік. Бірақ, мүмкін, тәуекелдер туралы ойластырмас бұрын, біз мұны істеуіміз керек. сұраңыз: мұндай технологияның ықтимал артықшылықтары қандай?»

Масштабтау эмоцияларды анықтау бағдарламалық құралын пайдаланатын жалғыз компания емес. Кума LLC құпиялылық және қауіпсіздік консалтингтік компаниясының құпиялылық жөніндегі аға директоры Тео Уиллс Lifewire электрондық поштасы арқылы сұхбат кезінде эмоцияларды анықтауға арналған бағдарламалық жасақтама пайдаланушының назар аударып жатқанын бағалау үшін пайдаланылатынын айтты. Ол сондай-ақ көлік индустриясында жүргізушілердің ұйқышыл болып көрінетінін бақылау үшін, бейне платформаларда қызығушылықты анықтау және ұсыныстарды бейімдеу үшін және оқытудың белгілі бір әдісінің қызықты екенін анықтау үшін білім беру оқулықтарында сынақтан өткізілуде.

Уиллс эмоцияларды бақылау бағдарламалық жасақтамасы төңірегіндегі даулар құпиялылықтан гөрі деректер этикасына қатысты мәселе екенін айтты. Оның айтуынша, бұл жүйенің болжам негізінде нақты шешімдер қабылдайтыны туралы.

"Осы технологияның көмегімен сіз менің бет-әлпетімде ерекше өрнек пайда болуының себебін ойлап жатырсыз, бірақ өрнектің артындағы серпін әлеуметтік немесе мәдени тәрбие, отбасылық мінез-құлық, өткен тәжірибе немесе жүйке күйзеліс сияқты нәрселерге байланысты әр түрлі болады. дәл қазір », - деп қосты Уиллс. "Алгоритмді болжамға негіздеу табиғи түрде ақаулы және ықтимал кемсітушілік болып табылады. Көптеген популяциялар алгоритмдер негізделген популяцияда көрсетілмейді және оны қолданбас бұрын тиісті ұсынуға басымдық беру керек."

Практикалық ойлар

Эмоцияларды бақылау бағдарламалық құралы көтеретін мәселелер теориялық сияқты практикалық болуы мүмкін. Қарым-қатынас интеллектін беретін AI-ге негізделген қосымшаның негізін қалаушы Мэтт Хейси Lifewire-ке электрондық пошта арқылы пайдаланушылардың беттерді талдау қайда және қандай деректер сақталатынын сұрауы керек екенін айтты. Зерттеу бұлтта немесе жергілікті құрылғыда өңделген қоңырау жазбалары бойынша жасалуда ма?

Сонымен қатар, Хейси алгоритм үйренген кезде адамның беті немесе қимылдары туралы қандай деректерді жинайды, оларды алгоритмнен ажыратып, біреудің биометрикасын қайта жасау үшін пайдалануға болады деп сұрады. Компания алгоритмнің үйренгенін растау немесе растау үшін суреттерді сақтайды ма және пайдаланушыға осы жаңа туынды деректер немесе олардың қоңырауларынан жиналуы мүмкін сақталған суреттер туралы хабарланады ма?

"Мұның барлығы көптеген компаниялар шешкен мәселелер, бірақ олар мұны дұрыс істемегені белгілі болған кезде жанжалға ұшыраған компаниялар да бар", - деді Хейси. "Facebook - пайдаланушының жеке өміріне қатысты алаңдаушылыққа байланысты бет-әлпетті тану платформасын кері қайтарған компанияның ең маңызды оқиғасы. Meta бас компаниясы қазір биометриялық деректерге қатысты құпиялылық заңдарына байланысты Иллинойс және Техас сияқты кейбір юрисдикцияларда Instagram-дан AR мүмкіндіктерін алып жатыр."

Ұсынылған: