Моментот на Cry Wolf на возбудата со вештачката интелигенција не е корисен

Иако сум некој што ги проучува сценаријата за крајот на човештвото, верувам дека „експертското писмо“ кое сугерира 6-месечен мораториум за вештачка интелигенција или поновата изјава дека ризикот од вештачка интелигенција е на ниво на пандемија и нуклеарен ризик, и двете се претерани. Уште полудото мислење дека треба да ја исклучиме вештачката интелигенција е неодговорно. Секоја грижа мора да биде пропорционална на ризиците со кои се соочуваме. Во моментов, ние не сме во непосредна опасност од вештачката интелигенција.

Тековните ВИ не се способни да го преземат општеството. Тие немаат чувства и не заслужуваат заштита како што тоа го прават човечките животи. Тие не се суперинтелигентни и воопшто не ги надминуваат луѓето. Всушност, тие воопшто не размислуваат. Во моментов, ако се хранат со обилни податоци, вештачката интелигенција се многу добри во конкретни задачи како што се пресметување и предвидување. Тоа не е загрижувачки, тоа се карактеристики што овие системи ги имаат по дизајн. Ветувањето на вештачката интелигенција вклучува решавање на ракот, трансформација на индустриското производство, моделирање на идни сценарија и управување со еколошките предизвици. Имајќи го тоа кажано, постојат легитимни причини да се критикуваат тековните ВИ за користење на ресурси, транспарентност, пристрасност, сајбер безбедност и нејзиното идно влијание врз вработувањето.

ВИ се пресметувачки скапи - што значи дека тие се големо губење на оскудна, фосилна енергија. Ова треба веднаш да се реши. Но, тоа не е егзистенцијално прашање, тоа е прашање на рационално користење на ресурсите. Фактот дека вештачката интелигенција кои се потпираат на големи и неефикасни модели на податоци стануваат прескапи за следење и истражување од страна на академската средина или владата е вистински проблем. Но, тоа е непосредно поправено. Конзорциуми од елитни академски институции или влади би можеле да одат заедно и да ги споделат компјутерските ресурси на начинот на кој тоа го направиле за суперкомпјутерите.

Моделите на големи јазици (LLM) се модели на вештачка интелигенција кои можат да генерираат текстови на природен јазик од големи количини на податоци. Еден проблем со тоа е што овие текстови се директно изведени од туѓи чесни интелектуални придонеси. Тие се всушност украдени. Конкретно, генеративната вештачка интелигенција ги рекомбинира податоците за потрошувачите и организациите, како и креативните содржини што ги прекршуваат авторските права. Ова е сериозно, но не и егзистенцијално, а згора на тоа, ЕУ, лобисти од Холивуд и „големата петорка“ издавачи на книги веќе се на случајот. Очекувајте дека ова ќе ја забави тежината на вештачката интелигенција. Со сегашната стапка, на вештачката интелигенција ќе им снема добри податоци за обука многу пред да се приближат до чувството.

Алгоритмите што веќе се користат за пресметување на нашите даноци, избирање на нашите онлајн доводи или ставање луѓе во затвор имаат зачудувачки недостаток на транспарентност. Сепак, тоа е случај со години и нема никаква врска со најновите случувања со вештачка интелигенција. Пристрасноста на вештачката интелигенција е карактеристика, а не грешка. Стереотипизацијата е всушност главниот пристап преку кој функционираат ваквите модели. Освен што предрасудите се кријат во непробојни слоеви на машинско расудување кое е недофатливо за луѓето, експертите или не. Она што треба да се сомневаме е мудроста на програмерите кои развиле такви системи, а не способноста на системот што тие го создале, што е дадено. Системите ретко ќе бидат подобри од мудроста или намерите на оние што ги градат или управуваат.

Податоците за обука за вештачка интелигенција ги одразуваат предрасудите присутни во општеството од кое се собрани тие податоци. Повторната употреба на лоши податоци за обука е загрижувачка практика која веќе ги загадува моделите со вештачка интелигенција. Тековните пристапи со вештачка интелигенција едноставно ја засилуваат пристрасноста за брзо да се дојде до резултат. Ова е, додуша, спротивно од она што го сакаме. Она што сакаме да го направиме е да користиме технологија за да ја заштитиме човечката грешка. Грижата за машинската грешка е расипничко користење на човечката интелигенција.

И покрај метафората на „невронската мрежа“, тековната вештачка интелигенција не наликува на мозок по никаков дел од имагинацијата. Сегашните системи за вештачка интелигенција не можат да расудуваат по аналогија како што прават луѓето. Ова е добро. Можеби всушност не сакаме усогласување со вештачката интелигенција за кое се залагаат и се обидуваат да го имитираат ревнителите. Машините треба да се разликуваат од луѓето. Така можеме да ги максимизираме силите едни на други. И како можеме да ги одржуваме машините различни и одвоени. Машините не треба да имаат никакви интереси за усогласување.

Вештачката интелигенција се повеќе претставува значајна закана за сајбер безбедноста како предност за криминалците и непријателските држави. Но, сајбер-безбедноста е зрела индустрија со многу експерти добро опремени да се справат со предизвикот. Нема причина да се исклучи вештачката интелигенција поради стравови од сајбер безбедност.

Нарушувањето на вработувањето поради вештачката интелигенција е прашање на политиката со години, прво со роботите, а сега со софтверските системи за вештачка интелигенција. Тоа значи дека владите ќе бидат подготвени да се справат со тоа. Студијата на MIT Work of the Future покажа дека загриженоста за невработеноста поради роботите е преценета. Луѓето отсекогаш наоѓале начини да работат и ќе го прават тоа и во иднина. Дали производството ќе се трансформира со вештачка интелигенција? Тоа веќе се случува, но на прилично контролиран начин.

Одвреме-навреме, вештачката интелигенција страда од пренагласени ветувања за моменталната функционалност или идниот опсег. Првите зими со вештачка интелигенција започнаа во 1974-1980 година, кога американската влада го повлече своето финансирање. Вториот беше од 1987-1993 година, бидејќи трошоците ескалираа, а вештачката интелигенција не успеа да ги исполни своите високи ветувања.

Очекувајќи да пристигнат нови парадигми, во периодот од 2025-2030 година, најверојатно ќе влеземе во трета зима со вештачка интелигенција. Барем во споредба со жешкото лето со вештачка интелигенција ни е ветено. Причината е што, и покрај возбудата, поради сите причини наведени погоре, големите јазични модели се на пат да ја достигнат својата максимална корист и на крајот ќе треба да бидат заменети со пресметковно поелегантни пристапи кои се потранспарентни.

Еден таков кандидат е хипердимензионалното пресметување кое би ги натерало машините да размислуваат поефикасно бидејќи на машините им даваат семантичко разбирање, способност да обработуваат значење и контекст зад информациите од реалниот свет. Во моментов, системите за вештачка интелигенција не ги разбираат односите помеѓу зборовите и фразите, тие едноставно се добри во претпоставките. Тоа е недоволно. На крајот ќе ни треба отелотворена вештачка интелигенција, бидејќи размислувањето е поврзано со перцепцијата на просторот. Тоа е дефинитивно случај во производството кое е многу физичка игра. Ќе ни треба и вештачка интелигенција која е способна за карактеристики на човечката меморија, како што се приоритизирање врз основа на преден план на некои информации и заднина на други информации. Заборавањето е алатка која луѓето ја користат за апстрактно размислување, преминување од застарените организациски практики, донесување одлуки и за останување во моментот и не е само мана. Ниту една машина сè уште не може да го направи тоа многу добро.

Во меѓувреме, треба да регулираме, но не оваа секунда. И, кога регулираме, подобро да го правиме тоа добро. Лошата регулација на вештачката интелигенција веројатно ќе ја влоши ситуацијата. Разбудувањето на регулаторите за овој предизвик може да биде корисно, но не сум сигурен дека сегашната генерација на регулатори е подготвена за такви големи промени што би биле потребни за да се направи тоа добро. Тоа би значело ограничување на моќните компании (можеби сите котирани компании), ограничување на употребата на вештачката интелигенција во управувањето и би значело огромни промени во начинот на кој моментално функционираат потрошувачките пазари. Во суштина, би требало да го преживееме општеството. Тоа би нè воведе во де-растење неколку децении порано отколку што би сакале. Предизвикот за транспарентност околу вештачката интелигенција може да биде пострашен од контролните променливи за кои сите изгледаат толку загрижени, се разбира дека не се поврзани.

Покрај тоа, не можеме да бидеме подеднакво загрижени секогаш кога ќе се достигне репер за вештачка интелигенција. Треба да ја зачуваме нашата енергија за навистина големи моменти на каскаден ризик. Тие ќе дојдат и, за волја на вистината, не сме подготвени. Моите замислени идни сценарија (види сценарија за истребување за 2075 година) вклучуваат масивни прекршувања на податоците што ги држат цели земји заклучени од нивните сопствени процеси со месеци. Се грижам и за вештачките интелигенции на кои им помагаат криминални групи или државни актери. Најмногу од сè, се грижам за комбинации на вештачка интелигенција, нанотехнологија, синтетичка биологија и квантна технологија - речиси невидлива квази-органска интелигенција со непозната способност, можеби само неколку децении подалеку, што ќе се случи токму кога светот ќе биде обземен од каскадните ефекти на климата промена.

Сегашните модели на вештачка интелигенција сè уште не функционираат доволно добро за да бидат закана за човештвото. Пред да размислиме за нивно исклучување, ни требаат подобри ВИ. Повеќе од тоа, ни требаат помудри развивачи, посензибилизирани граѓани и подобро информирани креатори на политики. Потребен ни е и концепт за КАКО да се регулира вештачката интелигенција. Но, ова може да се направи без да се забави ништо. Тоа ќе биде едукативно патување за сите. Писмото за мораториум во врска со GPT 4 (2023) е момент на плачење на волкот со само слаба сличност со каскадните ризици со кои се соочува човештвото во наредните децении. Ставањето на ризикот од вештачка интелигенција на ниво на ризик од пандемија и нуклеарен ризик во 2023 година е прерано. Ќе стигнеме ли таму? Можеби. Но, плачењето на волкот има последици. Тоа го цица кислородот од претстојните дебати за вистинските стравови.

Извор: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/