AI ақырында жек көретін сөздерді жоюға көмектесе алады

Мазмұны:

AI ақырында жек көретін сөздерді жоюға көмектесе алады
AI ақырында жек көретін сөздерді жоюға көмектесе алады
Anonim

Негізгі ұсыныстар

  • Жаңа бағдарламалық құрал AI-ға жек көретін сөздерге арналған интернеттегі пікірлерді бақылауға мүмкіндік береді.
  • Адам мүмкіндіктерінен асып түсетін материалдардың үлкен көлеміне байланысты интернет мазмұнын реттеу үшін AI қажет.
  • Бірақ кейбір сарапшылар AI арқылы сөйлеуді бақылау құпиялылық мәселелерін тудырады дейді.
Image
Image

Желіде өшпенділік көбейген сайын, бір компания адам модераторларына сенбейтін шешім болуы мүмкін дейді.

Spectrum Labs деп аталатын стартап нақты уақытта улы алмасуларды анықтау және өшіру үшін платформа провайдерлеріне жасанды интеллект технологиясын ұсынады. Бірақ сарапшылардың айтуынша, AI мониторингі құпиялылық мәселелерін де тудырады.

"AI мониторингі көбінесе уақыт өте келе үлгілерді қарауды қажет етеді, бұл деректерді сақтауды қажет етеді ", - деді Дэвид Муди, Schellman қауіпсіздік және құпиялылықты сақтауды бағалау компаниясының аға серіктесі Lifewire электрондық поштасына берген сұхбатында. "Бұл деректер заңдарда құпиялылық деректері (жеке сәйкестендірілетін ақпарат немесе PII) деп белгіленген деректерді қамтуы мүмкін."

Тағы да жек көретін сөздер

Spectrum Labs өшпенділік сөзінің көне мәселесіне жоғары технологиялық шешімді уәде етеді.

"Орташа алғанда, біз платформаларға мазмұнды модерациялау әрекеттерін 50%-ға қысқартуға және уытты әрекеттерді анықтауды 10 есе арттыруға көмектесеміз", - дейді компания өз веб-сайтында.

Spectrum мінез-құлықты анықтаудың 40-тан астам үлгісін жасау үшін арнайы зиянды мінез-құлық бойынша тәжірибесі бар зерттеу институттарымен жұмыс істегенін айтады. Компанияның Guardian мазмұнын модерациялау платформасын деректер ғалымдары мен модераторлар тобы «қауымдастықтарды уыттылықтан қорғауды қолдау үшін жасаған."

Өшпенділік сөздерімен күресу тәсілдеріне қажеттілік артып келеді, өйткені адам онлайн трафиктің әрбір бөлігін бақылау мүмкін емес, Дилан Фокс, AssemblyAI компаниясының бас директоры, сөйлеуді тануды қамтамасыз ететін және тұтынушыларды жек көрушілікті бақылауға тартатын стартап Бұл туралы Lifewire электрондық пошта сұхбатында айтты.

"Тек Твиттерде күніне 500 миллионға жуық твит бар", - деп қосты ол. "Бір адам әрбір 10 секунд сайын твиттерді тексере алатын болса да, Twitter бұл үшін 60 мың адамды жұмыспен қамтуы керек. Оның орнына біз процесті автоматтандыру үшін AI сияқты смарт құралдарды пайдаланамыз."

Адамнан айырмашылығы, AI тәулік бойы жұмыс істей алады және әлеуеттірек болуы мүмкін, өйткені ол өз ережелерін барлық пайдаланушыларға жеке сенімдеріне кедергі келтірмей біркелкі қолдануға арналған, деді Фокс. Мазмұнды бақылауға және модерациялауға тура келетін адамдар үшін де ақы бар.

"Олар зорлық-зомбылыққа, өшпенділікке және адамның психикалық денсаулығына зиян тигізетін жағымсыз әрекеттерге ұшырауы мүмкін", - деді ол.

Spectrum желідегі өшпенділік сөздерді автоматты түрде анықтауға тырысатын жалғыз компания емес. Мысалы, Center Malaysia жақында малайзиялық желі қолданушылары арасында өшпенділік сөздерін табуға арналған онлайн трекерді іске қосты. Олар әзірлеген Tracker Benci бағдарламалық құралы желіде, әсіресе Twitter-де өшпенділік сөздерін анықтау үшін машиналық оқытуды пайдаланады.

Қиындық – адамдар бір-бірімен конструктивті түрде араласатын кеңістікті қалай жасау керек.

Құпиялылыққа қатысты алаңдаушылық

Спектр сияқты технологиялық шешімдер желідегі өшпенділік сөздерімен күресуі мүмкін болғанымен, олар сонымен қатар компьютерлер қаншалықты тәртіп сақшысын жасау керектігі туралы сұрақтарды тудырады.

Сөйлеу еркіндігінің салдары бар, бірақ жазбалары өшпенділік ретінде жойылатын спикерлер үшін ғана емес, - деді Ирина Райку, Санта-Клара университетінің Марккула қолданбалы этика орталығының интернет этикасының директоры, Lifewire электрондық поштасына. сұхбат.

««Сөз бостандығы» деген атпен қудалауға жол беру мұндай сөйлеудің мақсаттарын (әсіресе белгілі бір адамдарға бағытталған кезде) сөйлеуді тоқтатуға, яғни әртүрлі әңгімелер мен платформалардан толығымен бас тартуға итермеледі », - деді Райку."Міндет - адамдар бір-бірімен конструктивті түрде араласатын кеңістікті қалай құру."

AI сөйлеуді бақылау, егер компаниялар мониторинг кезінде жалпыға қолжетімді ақпаратты пайдаланса, құпиялылық мәселелерін тудырмауы керек, деді Фокс. Дегенмен, компания проблемалы пайдаланушыларды алдын ала анықтау үшін пайдаланушылардың басқа платформаларда өзара әрекеттесуі туралы мәліметтерді сатып алса, бұл құпиялылық мәселелерін тудыруы мүмкін.

"Қолданбаға байланысты ол сәл сұр аймақ болуы мүмкін", - деп қосты ол.

Image
Image

Джастин Дэвис, Spectrum Labs компаниясының бас директоры Lifewire-ке электрондық пошта арқылы компанияның технологиясы секундтың бірнеше бөлігінің ішінде 2-5 мың жол деректерін тексере алатынын айтты. «Ең бастысы, технология адам модераторлары әсер ететін улы мазмұнның мөлшерін азайта алады», - деді ол.

Біз ғаламтордағы адамның сөзі мен мәтінін бақылайтын AI саласындағы революцияның шыңында болуымыз мүмкін. Болашақ жетістіктерге өшпенділік сөздерінің бұрын белгісіз нысандарын немесе дамитын кез келген басқа цензуралық үлгілерді анықтау үшін жақсырақ тәуелсіз және автономды бақылау мүмкіндіктері кіреді, деді Moody.

AI сондай-ақ жақын арада белгілі бір сөйлеу үлгілеріндегі үлгілерді тани алады және жаңалықтар талдауы, жалпыға қолжетімді құжаттар, трафик үлгісін талдау, физикалық бақылау және басқа да көптеген опциялар арқылы дереккөздер мен олардың басқа әрекеттерін байланыстыра алады, деп қосты ол.

Бірақ кейбір сарапшылар өшпенділік сөздерін бақылау үшін адамдар әрқашан компьютермен жұмыс істеуі керек дейді.

"Жалғыз AI жұмыс істемейді", - деді Райку. "Оны басқа жауаптармен бірге пайдалану керек бір жетілмеген құрал деп тану керек."

Түзету 25.1.2022: Жарияланғаннан кейінгі электрондық поштаны көрсету үшін соңынан бастап 5-ші абзацқа Джастин Дэвистің дәйексөзі қосылды.

Ұсынылған: