AI өзінің қауіпті ұрпақтарын қалай бақылай алады

Мазмұны:

AI өзінің қауіпті ұрпақтарын қалай бақылай алады
AI өзінің қауіпті ұрпақтарын қалай бақылай алады
Anonim

Негізгі ұсыныстар

  • Жаңа мақалада жасанды интеллект басқаларға қарағанда қай зерттеу жобалары көбірек реттеуді қажет ететінін анықтай алады деп мәлімдейді.
  • Бұл қандай AI түрі қауіпті болуы мүмкін екенін анықтауға күш салудың бір бөлігі.
  • Бір сарапшының айтуынша, AI-ның нағыз қауіптілігі ол адамдарды мылқау ете алады.

Image
Image

Жасанды интеллект (AI) көптеген артықшылықтарды, сонымен қатар кейбір ықтимал қауіптерді ұсынады. Ал енді зерттеушілер өздерінің компьютерлендірілген туындыларын бақылау әдісін ұсынды.

Халықаралық топ жаңа мақалада AI зерттеу жобаларының қай түрі басқаларға қарағанда көбірек реттеуді қажет ететінін анықтай алатынын айтады. Ғалымдар биология мен математикадан алынған ұғымдарды біріктіретін модельді қолданды және AI қандай қауіпті болуы мүмкін екенін анықтауға күш салудың бір бөлігі болып табылады.

"Әрине, егер біз осылай шешсек, AI-ны «ғылыми фантастикалық» қауіпті пайдалану туындауы мүмкін […], AI қауіпті ететін нәрсе AI емес, [оны қалай қолданамыз]," Тьерри Рэйна, Франциядағы École Polytechnique университетінің «Өзгерістерге арналған технологиялар» кафедрасы Lifewire электрондық поштасына берген сұхбатында айтты. "AI енгізу құзіреттілікті арттыру (мысалы, ол адамның/жұмысшының дағдылары мен білімдерінің өзектілігін күшейтеді) немесе құзыретті жою болуы мүмкін, яғни AI бар дағдылар мен білімді қажетсіз етеді немесе ескіреді."

Қойындыларды сақтау

Жақында жарияланған мақаланың авторлары постта AI жарыстарын имитациялау үшін модель құрастырғанын жазды. Нақты әлемдегі AI жарыстары қалай болатынын болжау үшін олар симуляцияны жүздеген рет жүргізді.

"Біз ерекше маңызды деп тапқан айнымалы мән жарыстың "ұзындығы" болды - имитацияланған жарыстар мақсатына жету үшін кеткен уақыт (функционалды AI өнімі), - деп жазды ғалымдар. "AI жарыстары мақсатына тез жеткенде, біз қауіпсіздік шараларын елемейтін етіп кодтаған бәсекелестер әрқашан жеңіске жететінін байқадық."

Керісінше, зерттеушілер ұзақ мерзімді AI жобаларының қауіпті емес екенін анықтады, өйткені жеңімпаздар әрқашан қауіпсіздікті елемейтіндер бола бермейді. «Осы тұжырымдарды ескере отырып, реттеушілер үшін күтілетін уақыт шкалаларына негізделген әртүрлі ережелерді қолдана отырып, әртүрлі AI жарыстары қанша уақытқа созылатынын анықтау маңызды болады», - деп жазды олар. "Біздің зерттеулеріміз спринттен марафонға дейінгі барлық AI жарыстары үшін бір ереже идеалдан алыс нәтижелерге әкелетінін көрсетеді."

AI бойынша кеңес беретін Coda Strategy компаниясының басқарушы директоры Дэвид Чжао Lifewire электрондық поштасына берген сұхбатында қауіпті AI анықтау қиын болуы мүмкін екенін айтты. Қиындықтар жасанды интеллектке заманауи тәсілдер терең оқыту тәсілін қолдануында жатыр.

"Терең оқыту кескінді анықтау немесе сөйлеуді тану сияқты көптеген пайдалану жағдайларында жақсы нәтиже беретінін білеміз", - деді Чжао. "Алайда адамдар терең оқыту алгоритмінің қалай жұмыс істейтінін және оның нәтижесін қалай беретінін түсіну мүмкін емес. Сондықтан жақсы нәтиже беретін AI қауіпті екенін айту қиын, өйткені адамдар не болып жатқанын түсіну мүмкін емес."

Бағдарламалық жасақтаманы нашар актерлер пайдалана алатын немесе қате нәтижелер беретін осалдықтары бар сыни жүйелерде пайдаланған кезде «қауіпті» болуы мүмкін, деді Мэтт Ши, MixMode AI фирмасының стратегия директоры электрондық пошта арқылы. Ол қауіпті AI нәтижелерді дұрыс жіктемеуге, деректердің жоғалуына, экономикалық әсерге немесе физикалық зақымға әкелуі мүмкін екенін айтты.

"Дәстүрлі бағдарламалық құралдың көмегімен әзірлеушілер бастапқы кодты қарап отырып, осалдықты қалай қосуға немесе қатені түзетуге болатынын анықтау үшін адам тексере алатын алгоритмдерді кодтайды", - деді Ши."Алайда AI көмегімен логиканың негізгі бөлігі деректердің өзінен жасалады, нейрондық желілер және т. кәдімгі бағдарламалық құрал сияқты."

Алда қауіп бар ма?

Терминатор сияқты фильмдерде AI адамзатты жоюды көздейтін зұлым күш ретінде бейнеленгенімен, нақты қауіптер прозалық болуы мүмкін дейді сарапшылар. Мысалы, Рэйна AI бізді ақымақ ете алады деп болжайды.

«Бұл адамдарды миын жаттықтырудан және тәжірибені дамытудан айыруы мүмкін», - деді ол. «Егер сіз уақытыңыздың көп бөлігін стартаптар қосымшаларын оқуға жұмсамасаңыз, қалай венчурлық капиталдың сарапшысы бола аласыз? Ең сорақысы, AI «қара жәшік» болып табылады және түсініксіз. Жасанды интеллект туралы нақты шешімнің неліктен қабылданғанын білмеу, сегвейде стадионды айналып өтіп, сарапшы жүгіруші бола алмайтыныңыз сияқты, одан үйрену өте аз болады дегенді білдіреді.”

Жақсы нәтиже беретін AI қауіпті екенін айту қиын, өйткені адамдар не болып жатқанын түсінуі мүмкін емес.

Жасанды интеллекттен келетін ең тікелей қауіп оның біржақты нәтиже беру мүмкіндігі болуы мүмкін, - деді Лайл Соломон, AI-ның заңды салдары туралы жазатын заңгер электрондық поштаға берген сұхбатында.

"AI қоғамдағы қайшылықтарды тереңдетуге көмектесуі мүмкін. Жасанды интеллект негізінен адамдардан жиналған деректерден құрастырылған ", - деп қосты Соломон. "[Бірақ] үлкен деректерге қарамастан, ол ең аз ішкі жиындарды қамтиды және әркім ойлайтын нәрсені қамтымайды. Осылайша, түсініктемелерден, жалпыға ортақ хабарлардан, шолулардан және т.б. жинақталған деректер, өзіне тән позициялары бар, AI дискриминация мен жеккөрушілікті күшейтеді."

Ұсынылған: