Етиката на вештачката интелигенција и законот за вештачка интелигенција ги разгледуваат клучните начини за спроведување на неодамна објавениот Бил за права на вештачката интелигенција, вклучително и неверојатно со целосно користење на вештачката интелигенција

Нема сомнеж дека ни се потребни нацрти во секојдневниот живот.

Ако сакате да ја изградите таа ваша куќа од одамна замислена соништа, би било мудро прво да составите употреблив нацрт.

Планот ја прикажува на опиплив и документиран начин каква и да е визионерска перспектива со ококорени очи што може да биде заклучена во вашиот ног. Оние кои ќе бидат повикани да го изградат вашиот ценет дом ќе можат да се повикаат на планот и да ги наведат деталите за тоа како да се заврши работата. Плановите се практични. Отсуството на план е обврзано да биде проблематично за справување со секаков вид сложена работа или проект.

Ајде да ја префрлиме оваа донекаде сентиментална, но вистинска почит кон плановите во доменот на вештачката интелигенција (ВИ).

Оние од вас кои суштински се занимаваат со вештачка интелигенција можеби се нејасно свесни дека важна политика е ориентирана планот Неодамна беше објавен во САД што се однесува на демонстративната иднина на вештачката интелигенција. Неформално познат како АИ Бил за права, официјалниот наслов на прогласената бела книга е „Блупринт за Бил за права на вештачката интелигенција: Да се ​​направат автоматизираните системи да функционираат за американскиот народ“ и е лесно достапен на интернет.

Документот е резултат на едногодишен напор и внимателна студија на Канцеларијата за политика за наука и технологија (OSTP). OSTP е федерален ентитет кој е основан во средината на 1970-тите и служи за советување на американскиот претседател и на извршната канцеларија на САД за различни технолошки, научни и инженерски аспекти од национално значење. Во таа смисла, може да се каже дека овој Бил за права на вештачката интелигенција е документ одобрен и одобрен од постојната Бела куќа на САД.

Бил за правата на вештачката интелигенција го прикажува човечки права што човештвото треба да го има во однос на појавата на вештачката интелигенција во нашиот секојдневен живот. Ја нагласувам оваа важна точка затоа што некои луѓе на почетокот беа збунети дека можеби ова е некакво признание дека вештачката интелигенција има правно лице и дека ова е низа права за чувствителната вештачка интелигенција и хуманоидните роботи. Не, уште не сме таму. Како што ќе видите во еден момент, ние не сме никаде блиску до чувствителната вештачка интелигенција, и покрај насловите на банери кои се чини дека ни кажуваат поинаку.

Добро, па дали ни треба план кој ги опишува човековите права во ера на вештачка интелигенција?

Да, ние најсигурно го правиме тоа.

За малку ќе треба да бидете затворени во пештера и да немате пристап до Интернет за да не знаете дека вештачката интелигенција веќе и сè повеќе ги нарушува нашите права. Неодамнешната ера на вештачката интелигенција првично се сметаше за постоење AI за добро, што значи дека би можеле да користиме вештачка интелигенција за подобрување на човештвото. На петиците на AI за добро дојде сознанието дека и ние сме потопени AI за лошо. Ова ја вклучува вештачката интелигенција која е измислена или самопроменета во дискриминаторска и прави пресметковни избори со несоодветни предрасуди. Понекогаш вештачката интелигенција е изградена на тој начин, додека во други случаи скршнува на таа неповолна територија.

За моето тековно и опширно покривање и анализа на Законот за вештачка интелигенција, етика за вештачка интелигенција и други клучни технолошки и општествени трендови за вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Отпакување на Законот за правата на вештачката интелигенција

Претходно разговарав за Законот за правата на вештачката интелигенција и ќе направам брз преглед овде.

Како настрана, ако сакате да ги знаете моите длабински добрите и лошите страни на неодамна објавениот Бил за права на вештачката интелигенција, јас детално ја опишав мојата анализа во објавата на правник, Видете врската овде. на правник е значајна веб-страница за правни вести и коментари на интернет, нашироко позната како наградувана правна служба за вести, овозможена од глобален тим од новинари студенти по право, уредници, коментатори, дописници и развивачи на содржини, и е со седиште на Факултетот за Универзитетот во Питсбург. Законот во Питсбург, каде што започна пред повеќе од 25 години. Викање до извонредниот и вреден тим во правник.

Во Законот за правата на вештачката интелигенција, постојат пет клучни категории:

  • Безбедни и ефективни системи
  • Алгоритамска заштита од дискриминација
  • Приватност на податоците
  • Известување и објаснување
  • Човечки алтернативи, размислување и резерва

Забележете дека не ги нумерив од еден до пет бидејќи тоа може да значи дека тие се во одредена низа или дека едно од правата е навидум поважно од другото. Ќе претпоставиме дека тие се секоја своја заслуга. Сите тие се во извесна смисла подеднакво заслужни.

Како кратка индикација за тоа од што се состои секој од нив, еве извадок од официјалната бела книга:

  • Безбедни и ефективни системи: „Треба да бидете заштитени од небезбедни или неефикасни системи. Треба да се развијат автоматизирани системи со консултации од различни заедници, засегнати страни и експерти во доменот за да се идентификуваат грижите, ризиците и потенцијалните влијанија на системот“.
  • Алгоритамска заштита од дискриминација: „Не треба да се соочувате со дискриминација со алгоритми и системите треба да се користат и дизајнираат на правичен начин. Алгоритамската дискриминација се јавува кога автоматските системи придонесуваат за неоправдано различен третман или влијание на немилост на луѓето врз основа на нивната раса, боја, етничка припадност, пол (вклучувајќи бременост, породување и поврзани медицински состојби, родов идентитет, интерсексуален статус и сексуална ориентација), религија, возраст , национално потекло, инвалидитет, статус на ветеран, генетски информации или која било друга класификација заштитена со закон“.
  • Приватност на податоците: „Треба да бидете заштитени од навредливи практики за податоци преку вградената заштита и треба да имате агенција за тоа како се користат податоците за вас. Треба да бидете заштитени од прекршување на приватноста преку избор на дизајн што гарантира дека таквите заштити се вклучени стандардно, вклучително и обезбедување дека собирањето податоци е во согласност со разумните очекувања и дека се собираат само податоците строго неопходни за конкретниот контекст“.
  • Известување и објаснување: „Треба да знаете дека се користи автоматизиран систем и да разберете како и зошто придонесува за резултатите што влијаат на вас. Дизајнерите, развивачите и распоредувачите на автоматски системи треба да обезбедат општо достапна документација на едноставен јазик, вклучувајќи јасни описи на целокупното функционирање на системот и улогата што ја игра автоматизацијата, да забележат дека таквите системи се во употреба, поединецот или организацијата одговорна за системот и објаснувања за исходи кои се јасни, навремени и достапни“.
  • Човечки алтернативи, размислување и резерва: „Треба да можете да се откажете, онаму каде што е соодветно, и да имате пристап до лице кое може брзо да размисли и да ги реши проблемите со кои се соочувате. Треба да можете да се откажете од автоматизираните системи во корист на човечка алтернатива, онаму каде што е соодветно“.

Општо земено, ова се аспекти на човековите права кои беа опкружени подолго време во контекст на етиката на вештачката интелигенција и законот за вештачка интелигенција, видете го моето покривање како на пр. врската овде. Белата хартија навидум магично не го вади зајакот од шапката како за некое новооткриено или откопано право што досега не било разјаснето во контекст од ерата на вештачката интелигенција.

Тоа е во ред.

Може да тврдите дека нивното собирање во една уредно спакувана и формализирана колекција обезбедува витална услуга. Плус, со тоа што е помазан како признат АИ Бил за права, ова дополнително ја става целата работа отворено и умешно во свеста на јавната сфера. Соединува постоечка плејада на различни дискусии во единствен сет што сега може да се труби и да се пренесе низ сите видови засегнати страни.

Дозволете ми да ја предложам оваа листа на поволни реакции на објавениот Бил за правата на вештачката интелигенција:

  • Обезбедува суштинска компилација на принципи на клучот
  • Служи како план или основа за градење
  • Дејствува како вокализиран повик за акција
  • Поттикнува интерес и покажува дека тоа се сериозни размислувања
  • Обединува мноштво различни дискусии
  • Искри и придонесува за напорите за усвојување на етичка вештачка интелигенција
  • Несомнено ќе се вклучи во воспоставувањето на законите за вештачка интелигенција
  • други

Треба да ги земеме предвид и помалку од поволните реакции, имајќи предвид дека има уште многу работа што треба да се заврши и дека ова е само почеток на долгото патување на макотрпниот пат на владеење со вештачката интелигенција.

Како такви, донекаде остри или да речеме конструктивни критики упатени во врска со Законот за правата на вештачката интелигенција вклучуваат:

  • Не е законски применлив и целосно необврзувачки
  • Само советодавна и не се смета за владина политика
  • Помалку сеопфатен во споредба со другите објавени дела
  • Првенствено се состои од широки концепти и нема детали за имплементацијата
  • Ќе биде предизвик да се претвори во вистински остварливи практични закони
  • Навидум молчи за демне прашањето за евентуално забрана на вештачката интелигенција во некои контексти
  • Маргинално ги признава предностите од користењето на вештачката интелигенција која е добро осмислена
  • други

Можеби најистакнатите остри коментари се фокусираа на фактот дека овој Закон за права на вештачката интелигенција не е законски применлив и затоа не држи вода кога станува збор за воспоставување јасни цели. Некои рекоа дека иако белата хартија е корисна и охрабрувачка, дефинитивно и недостасуваат заби. Тие се прашуваат што може да дојде од, наводно, збир на вешти правила со шупливи заби.

Ќе се осврнам на тие гризе забелешки за момент.

Во меѓувреме, белата книга изобилно ги наведува ограничувањата на она што го повлекува овој Закон за права на вештачката интелигенција:

  • „Планот за Закон за правата на вештачката интелигенција е необврзувачки и не ја сочинува политиката на американската влада. Не го заменува, менува или насочува толкувањето на кој било постоечки статут, регулатива, политика или меѓународен инструмент. Тоа не претставува обврзувачко упатство за јавноста или федералните агенции и затоа не бара усогласеност со принципите опишани овде. Тоа, исто така, не е детерминативно за тоа каква ќе биде позицијата на американската влада во какви било меѓународни преговори. Усвојувањето на овие принципи може да не ги исполнува барањата на постојните статути, регулативи, политики или меѓународни инструменти или барањата на федералните агенции кои ги спроведуваат. Овие принципи не се наменети и не забрануваат или ограничуваат каква било законска активност на владина агенција, вклучително и активности за спроведување на законот, националната безбедност или разузнавачки активности“ (според белата книга).

За оние кои набрзина го поткопаат Законот за правата на вештачката интелигенција како правно необврзувачки, ајде да направиме малку мисловен експеримент за тоа боцкачко тврдење. Да претпоставиме дека белата книга беше објавена и ја имаше целосната сила на законот. Се осмелувам да кажам дека резултатот би бил донекаде катаклизмичен, барем според степенот и на правните и на општествените одговори на прогласот.

Законодавците би биле на ум дека напорите не ги презеле нормативните процеси и правните процедури при составувањето на таквите закони. Бизнисите би биле бесни, со право, затоа што ќе изникнат нови закони без доволно известување и свест за тоа кои се тие закони. Би следеле секакви вознемирености и бес.

Не е добар начин да се гравитираме кон зајакнување на правата на човештвото во ера на вештачка интелигенција.

Потсетете се дека претходно ја започнав оваа дискусија со изнесување на вредноста и виталноста на плановите.

Замислете дека некој го прескокнал чекорот на изработка на нацрти и веднаш скокнал во изградбата на вашата куќа од соништата. Што мислите, како би изгледала куќата? Се чини дека е фер облог дека куќата нема особено да одговара на она што го имавте во вашиот ум. Добиената куќа може да биде тотален хаос.

Суштината е дека ни требаат нацрти и сега имаме таков за да продолжиме напред кон пронаоѓање на разумни закони за вештачка интелигенција и зајакнување на усвојувањето на етички ВИ.

Затоа, би сакал да се осврнам на начините на кои овој нацрт Бил за права на вештачката интелигенција може да се претвори во куќа. Како ќе го искористиме планот? Кои се соодветните следни чекори? Дали овој план може да биде доволен или му треба повеќе месо на коските?

Пред да започнеме со овие тешки работи, би сакал прво да се уверам дека сите сме на иста страница за природата на вештачката интелигенција и од што се состои денешниот статус.

Правилно поставување на рекордот за денешната вештачка интелигенција

Би сакал да дадам крајно нагласена изјава.

Дали сте подготвени?

Денес не постои вештачка интелигенција која е чувствителна.

Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (најчесто се нарекува сингуларност, видете ја мојата покриеност на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителната вештачка интелигенција, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Силно би предложил да ги задржиме работите приземни и да ја земеме предвид денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

Бидете многу внимателни со антропоморфизирање на денешната вештачка интелигенција.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање со шаблони на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Сето ова има особено значајни импликации за етика на вештачката интелигенција и нуди практичен прозорец во научените лекции (дури и пред да се случат сите лекции) кога станува збор за обидот да се донесе законска вештачка интелигенција.

Покрај користењето на правилата за етика на вештачката интелигенција општо, постои соодветно прашање дали треба да имаме закони за регулирање на различните употреби на вештачката интелигенција. На федерално, државно и локално ниво се шират нови закони кои се однесуваат на опсегот и природата на тоа како треба да се смисли вештачката интелигенција. Напорот за изготвување и донесување такви закони е постепен. Етиката на вештачката интелигенција во најмала рака служи како запирање и речиси сигурно до одреден степен ќе биде директно инкорпорирана во тие нови закони.

Бидете свесни дека некои категорично тврдат дека не ни требаат нови закони кои покриваат вештачка интелигенција и дека нашите постоечки закони се доволни. Тие предупредуваат дека ако навистина донесеме некои од овие закони за вештачка интелигенција, ќе ја убиеме златната гуска со тоа што ќе го спречиме напредокот во вештачката интелигенција што нуди огромни општествени предности.

Во претходните колумни, ги опфатив различните национални и меѓународни напори за создавање и донесување закони што ја регулираат вештачката интелигенција, види врската овде, на пример. Ги опфатив и различните принципи и упатства за етика на вештачката интелигенција што различни нации ги идентификуваа и усвоија, вклучувајќи ги на пример напорите на Обединетите нации како што е сетот на УНЕСКО за етика на вештачката интелигенција што го усвоија скоро 200 земји, види врската овде.

Еве корисна клучна листа на критериуми или карактеристики за етичка вештачка интелигенција во врска со системите за вештачка интелигенција што претходно внимателно ги истражив:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Тие принципи за етика на вештачката интелигенција искрено би требало да ги користат развивачите на вештачка интелигенција, заедно со оние кои управуваат со напорите за развој на вештачка интелигенција, па дури и оние кои на крајот се однесуваат и вршат одржување на системите за вештачка интелигенција.

Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се разгледуваат во опсегот на почитување на веќе воспоставените норми на Етичка вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на почитување на поимите за етика на вештачката интелигенција. Како што беше претходно нагласено овде, потребно е едно село за да се осмисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките прописи на вештачката интелигенција.

Сега, кога поставив корисна основа, подготвени сме да се нурнеме понатаму во Законот за правата на вештачката интелигенција.

Четири основни начини за спроведување на Законот за правата на вештачката интелигенција

Некој ви дава план и ви кажува да одите на работа.

Што правите?

Во случајот на Законот за правата на вештачката интелигенција како план, разгледајте ги овие четири суштински чекори за да се придвижите напред:

  • Послужете како влез за формулирање закони за вештачка интелигенција: Искористете го планот за да помогнете во формулирањето закони за вештачка интелигенција, правејќи го тоа, се надевам, на усогласена основа на федерално, државно и локално ниво (можеби помагајќи и во меѓународните правни напори за вештачка интелигенција).
  • Помош за пошироко усвојување на етиката на вештачката интелигенција: Користете го планот за да ги поттикнете формулациите за етика на вештачката интелигенција (понекогаш се нарекуваат „меки закони“ во споредба со правно обврзувачките „тврди закони“), правејќи го тоа за да ги инспирира и води бизнисите, поединците, владините ентитети и другите изборни единици кон подобри и поконзистентни етички Резултати од вештачка интелигенција.
  • Обликувајте активности за развој на вештачка интелигенција: Користете го планот за да поттикнете создавање на методологии за развој на вештачка интелигенција и аспекти за обука, правејќи го тоа за да се обидете да ги натерате развивачите на вештачка интелигенција и оние кои се занимаваат со или користат вештачка интелигенција да бидат посвесни за тоа како да се смисли вештачка интелигенција според посакуваните правила за етика на вештачката интелигенција и во исчекување. на претстојните закони за вештачка интелигенција што се донесуваат.
  • Мотивирајте го доаѓањето на вештачката интелигенција за да помогне во контролирањето на вештачката интелигенција: Користете го планот за да осмислите вештачка интелигенција која ќе се користи за да се обиде и да послужи како проверка и рамнотежа против друга вештачка интелигенција што би можела да скршне на неповолната територија. Ова е едно од оние макроскопски гледишта со кои можеме да го искористиме токму она што ни е навидум загрижувачко за (иронично, може да се каже) да помогне во заштитата на нас.

Разговарав за секој од гореспоменатите четири чекори низ моите објави на колумни.

За оваа дискусија овде, би сакал да се фокусирам на четвртиот наведен чекор, имено дека Законот за права на вештачката интелигенција може да послужи како мотиватор кон појавата на вештачката интелигенција за да помогне во контролирањето на вештачката интелигенција. Ова е донекаде шокантен или изненадувачки чекор за многумина кои сè уште не се навлегле целосно во оваа област која напредува со вештачка интелигенција.

Дозволете ми да објаснам.

Едноставна аналогија треба да го направи трикот. Сите ние сме навикнати овие денови на кршење на сајбер безбедноста и хакерски упади. Скоро секој ден слушаме или сме погодени од некоја најнова дупка во нашите компјутери што ќе им овозможи на злобните злосторници да ни ги грабнат податоците или да постават гаден дел од откупнината на нашите лаптопи.

Едно средство за борба против тие одвратни обиди се состои од користење на специјализиран софтвер кој се обидува да ги спречи тие упади. Речиси сигурно имате антивирусен софтверски пакет на вашиот компјутер дома или на работа. Веројатно има нешто слично на вашиот паметен телефон, без разлика дали сфаќате дека е таму или не.

Поентата ми е дека понекогаш треба да се борите со оган со оган (видете го моето покривање за ова, како на пр врската овде врската овде).

Во случајот на вештачката интелигенција која слетува во верботеното царство на AI за лошо, можеме да бараме да користиме AI за добро што се бори со тоа злонамерно AI за лошо. Ова секако не е чудотворен лек. Како што знаете, постои континуиран гамбит на мачка и глушец помеѓу злосторниците кои сакаат да упаднат во нашите компјутери и напредокот што се постигнува во заштитата на сајбер безбедноста. Тоа е речиси бескрајна игра.

Можеме да користиме вештачка интелигенција за да се обидеме да се справиме со вештачката интелигенција што поминала по забранет пат. Тоа ќе помогне. Тоа нема да биде особено сребрен куршум бидејќи неповолната вештачка интелигенција што ќе биде насочена речиси сигурно ќе биде измислена за да се избегне каква било таква заштита. Ова ќе биде тековно мачка и глушец на вештачката интелигенција наспроти вештачката интелигенција.

Во секој случај, вештачката интелигенција што ја користиме за да се заштитиме ќе обезбеди одредена количина на заштита од лоша вештачка интелигенција. Така, несомнено треба да осмислиме вештачка интелигенција која може да нè заштити или заштити. И, исто така, треба да бараме да создадеме заштитна вештачка интелигенција за да се приспособи како што се прилагодува лошата вештачка интелигенција. Ќе има жесток привид на мачка и глушец со молскавична брзина.

Не секој го сака ова проширување на улогата на вештачката интелигенција.

Оние кои веќе ја перцепираат вештачката интелигенција како хомогена аморфна конгломерација, би добиле огромно кошмари и кошмари од овој лажен гамбит на вештачка интелигенција наспроти ВИ. Ако се обидеме да запалиме оган против оган, можеби само правиме уште поголем оган. Вештачката интелигенција ќе стане огромен оган, кој повеќе не го контролираме и ќе се одлучиме да го пороби човештвото или да не избрише од планетата. Кога станува збор за дискусија за вештачката интелигенција како егзистенцијален ризик, обично нè наведуваат да веруваме дека целата вештачка интелигенција ќе се здружи, видете ја мојата дискусија за овие прашања на врската овде. Гледате, ни е кажано дека секое парче вештачка интелигенција ќе ги зграпчи своите браќа со вештачка интелигенција и ќе стане едно големо унитарно семејство.

Тоа е страшното и дефинитивно вознемирувачко сценарио на чувствителната вештачка интелигенција како беспрекорна мафија „се за еден“ и „еден за сите“.

Иако сте слободно добредојдени да правите такви претпоставки во врска со тоа дека тоа некогаш може да се случи, ве уверувам дека за сега, вештачката интелигенција што ја имаме денес се состои од камиони со исклучени различни програми за вештачка интелигенција кои немаат посебен начин да заговараат едни со други.

Откако го кажав тоа, сигурен сум дека оние кои жестоко веруваат во теории на заговор за вештачка интелигенција ќе инсистираат на тоа дека намерно сум го кажал ова за да ја сокријам вистината. Аха! Можеби ми се исплати денешната вештачка интелигенција која веќе го планира големото преземање на вештачката интелигенција (да, господине, ќе се капам во богатство штом ќе завладеат ВИ). Или, и јас сигурно не го фаворизирам овој друг агол, можеби слепо не сум свесен за тоа како вештачката интелигенција тајно заговара зад нашиот грб. Претпоставувам дека ќе треба да почекаме и да видиме дали јас сум дел од пучот со вештачка интелигенција или автентичен пуч (ах, тоа боли).

Да се ​​вратиме на земните размислувања, ајде накратко да истражиме како современата вештачка интелигенција може да се користи за да се помогне во спроведувањето на Законот за правата на вештачката интелигенција. Погодно и сумарно ќе се осврнам на ова како Добра вештачка интелигенција.

Ќе ги користиме петте клучни точки отелотворени во Бил за правата на вештачката интелигенција:

  • Добра вештачка интелигенција за промовирање Безбедни и ефективни системи: Секогаш кога сте подложни или користите систем со вештачка интелигенција, добрата вештачка интелигенција се обидува да открие дали вештачката интелигенција што се користи е небезбедна или неефикасна. По таквото откривање, Добрата вештачка интелигенција може да ве предупреди или да преземе други дејства, вклучително и блокирање на лошата вештачка интелигенција.
  • Добра вештачка интелигенција за обезбедување Алгоритамска заштита од дискриминација: Додека се користи систем за вештачка интелигенција кој може да содржи дискриминаторски алгоритми, на Добра вештачка интелигенција се обидува да утврди дали има несоодветна заштита за вас и се обидува да утврди дали навистина постојат непотребни предрасуди во користената вештачка интелигенција. Добрата вештачка интелигенција може да ве информира и, исто така, потенцијално автоматски да ја пријави другата вештачка интелигенција до различни органи, како што може да биде пропишано со законите и законските барања за вештачка интелигенција.
  • Добра вештачка интелигенција за зачувување Приватност на податоци: Овој тип на добра вештачка интелигенција се обидува да ве заштити од навлегувања во приватноста на податоците. Кога друга вештачка интелигенција бара да побара податоци кои можеби навистина не ви се потребни, добрата вештачка интелигенција ќе ве информира за пречекорувањето. Добрата вештачка интелигенција, исто така, може потенцијално да ги маскира вашите податоци на начин на кој, откако ќе бидат доставени до другата вештачка интелигенција, сепак ќе ги зачува вашите права за приватност на податоците. итн.
  • Добра вештачка интелигенција за воспоставување Известување и објаснување: Сите ние веројатно ќе наидеме на системи со вештачка интелигенција на кои им недостасуваат соодветни и соодветни известувања и кои за жал не успеваат да покажат соодветно објаснување за нивните постапки. Добрата вештачка интелигенција може да се обиде да ја протолкува или испрашува другата вештачка интелигенција, правејќи го тоа за потенцијално да ги идентификува известувањата и објаснувањата што требало да бидат дадени. Дури и ако тоа не е изводливо да се направи во даден пример, добрата вештачка интелигенција барем ќе ве предупреди за пропустите на другата вештачка интелигенција и евентуално ќе ја пријави вештачката интелигенција до назначените органи врз основа на пропишаните закони за вештачка интелигенција и законски барања.
  • Добра вештачка интелигенција за понуда Човечки алтернативи, размислување и резерва: Да претпоставиме дека користите систем за вештачка интелигенција и вештачката интелигенција навидум не е во висина на задачата што е при рака. Можеби не сфаќате дека работите се влошуваат, или можеби сте донекаде претпазливи и несигурни што да направите во врска со ситуацијата. Во таков случај, добрата вештачка интелигенција тивко ќе испита што прави другата вештачка интелигенција и може да ве предупреди за виталните грижи за таа вештачка интелигенција. Потоа ќе биде побарано да побарате човечка алтернатива на вештачката интелигенција (или Добрата вештачка интелигенција може да го стори тоа во ваше име).

За да се разбере понатаму како овој вид на Добра вештачка интелигенција може да се развие и да се стави на терен, видете ја мојата популарна и високо оценета книга за вештачка интелигенција (со чест да кажам дека е забележана како „Топ десет“) за она што генерално го нарекував ангели чувари на вештачката интелигенција, видете врската овде.

Заклучок

Знам што мислиш. Ако имаме добра вештачка интелигенција која е осмислена да не заштити, да претпоставиме дека Добрата вештачка интелигенција се корумпира и станува лоша вештачка интелигенција. Познатата или озлогласената латинска фраза изгледа целосно релевантна за оваа можност: Quis custodiet ipsos custodes?

Фразата му се припишува на римскиот поет Јувенал и може да се најде во неговото дело со наслов Сатири, и може слободно да се преведе како што значи кој ќе ги чува или гледа самите чувари. Многу филмови и ТВ емисии како што се Star Trek ја користеле оваа линија постојано.

Тоа е сигурно затоа што е одлична точка.

Секако, сите закони за вештачка интелигенција што ќе бидат донесени ќе треба да ја опфатат и лошата вештачка интелигенција и дури и добрата вештачка интелигенција што оди лошо. Затоа ќе биде клучно да се напишат разумни и сеопфатни закони за вештачка интелигенција. Законодавците кои само се обидуваат да фрлат случајни правници на ѕидот и се надеваат дека ќе се придржуваат кон законите за вештачка интелигенција, ќе се најдат себеси како длабоко ја промашуваат целта.

Тоа не ни треба.

Немаме ниту време, ниту можеме да ги поднесеме општествените трошоци за да се справиме со несоодветно смислените закони за вештачка интелигенција. Истакнав дека, за жал, понекогаш сме сведоци на нови закони поврзани со вештачката интелигенција, кои се слабо составени и полни со секакви правни болести, на пример, видете ја мојата истражна анализа на законот за ревизија на ВИ за пристрасност на вештачката интелигенција во Њујорк (NYC) на врската овде.

Ајде да се погрижиме соодветно да го користиме нацрт-законот за правата на вештачката интелигенција што сега го имаме при рака во врска со вештачката интелигенција. Ако го игнорираме планот, загубивме да ја засилиме нашата игра. Ако погрешно го спроведуваме планот, срам да ни е што узурпиравме корисна основа.

Почитуваниот римски поет Јувенал рече нешто друго што можеме да го искористиме во оваа околност: Анима сана во корпора сано.

Општо земено, ова се преведува во тврдењето дека би било разумно да се има и здрав или здрав ум и здраво или здраво тело. Ова ни овозможува да издржиме секаков вид на труд, според Јувенал, и сигурно ќе биде единствениот пат до живот во мир или доблест.

Време е да користиме здрав ум и здраво тело за да се увериме дека човештвото ќе ги зачува нашите човекови права и цврсто зајакнати во светот на сеприсутната и понекогаш непријатна вештачка интелигенција во подем. Тоа е здрав совет од Римјаните до кои треба да се придржуваме во денешното брзање среде епохата на вештачка интелигенција и иднината решително исполнета и со добра и со лоша вештачка интелигенција.

Извор: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- законот за правата-вклучувајќи-и-зачудувачки-со-целосно-користење-ai/