Етика за вештачка интелигенција и закон за вештачка интелигенција што појаснуваат што всушност е доверлива вештачка интелигенција

Довербата е сè, така велат тие.

Забележаниот филозоф Лао Це рече дека нема да им се верува на оние кои немаат доволно доверба. Ернест Хемингвеј, ценет романсиер, изјавил дека најдобриот начин да откриете дали можете да верувате некому е да му верувате.

Во меѓувреме, се чини дека довербата е и скапоцена и кршлива. Довербата што ја има може да се сруши како куќа од карти или одеднаш да пукне како пукнат балон.

Античкиот грчки трагичар Софокле тврдел дека довербата умира, но недовербата цвета. Францускиот филозоф и математичар Декарт тврдеше дека е разумно никогаш да не им веруваме целосно на оние кои нè измамиле дури еднаш. Извонредниот милијардер деловен инвеститор Ворен Бафет поттикна дека се потребни дваесет години за да се изгради доверлива репутација и пет минути за да се уништи.

Можеби ќе бидете изненадени ако знаете дека сите овие различни гледишта и провокативни мислења за довербата се клучни за појавата на вештачката интелигенција (ВИ).

Да, има нешто што се нарекува доверлива вештачка интелигенција што постојано добива многу внимание овие денови, вклучително и притискање на мачки од областа на вештачката интелигенција, а исто така и бурни испади од оние надвор од царството на вештачката интелигенција. Целокупниот поим подразбира дали општеството ќе биде подготвено или не да има доверба во системи како ВИ.

Веројатно, ако општеството нема или не може да и верува на вештачката интелигенција, шансите се дека системите со вештачка интелигенција нема да успеат да добијат влечна сила. Вештачката интелигенција каква што ја знаеме во моментов ќе се турка настрана и само ќе собира прашина. Шокантно, вештачката интелигенција би можела да заврши на купот ѓубре, историски сведена на ништо повеќе од очајно испробан, но спектакуларно неуспешен експеримент со висока технологија. Сите напори за заживување на вештачката интелигенција потенцијално би се соочиле со огромна тешка битка и би биле запрени од сите видови приговори и отворени протести. Наводно, поради недостаток на доверба во вештачката интелигенција.

Што ќе биде, дали да веруваме во вештачката интелигенција или да не веруваме во вештачката интелигенција?

Во суштина, дали навистина ќе имаме доверлива вештачка интелигенција?

Тоа се поранешни и нерешени прашања. Ајде да го отпакуваме.

Етика на вештачката интелигенција и борба за доверлива вештачка интелигенција

Верувањето на многумина во вештачката интелигенција е дека развивачите на системи за вештачка интелигенција можат да стекнат доверба во вештачката интелигенција со соодветно осмислување вештачка интелигенција која е доверлива. Суштината е дека не можете да се надевате дека ќе стекнете доверба ако вештачката интелигенција навидум не е доверлива на почетокот. Со изработка на системи за вештачка интелигенција на начин за кој се смета дека е доверлив, постои солидна шанса луѓето да прифатат вештачка интелигенција и да прифатат употреба на вештачка интелигенција.

Еден проблем што веќе го мачи ова доверливо размислување за вештачката интелигенција е дека можеби веќе сме во а дефицит на јавна доверба кога станува збор за вештачката интелигенција. Може да се каже дека вештачката интелигенција што веќе ја видовме ископа дупка и ја отфрли довербата во огромни количини. Така, наместо да започне со одредена доволна основа на доверливост, вештачката интелигенција ќе мора зачудувачки да се искачи од дефицитот, барајќи ја секоја посакувана унца дополнителна доверба што ќе биде потребна за да се убедат луѓето дека вештачката интелигенција е всушност доверлива.

Во овој предизвик доаѓа етика за вештачка интелигенција и Законот за вештачка интелигенција.

Етиката на вештачката интелигенција и законот за вештачка интелигенција силно се борат со обидот да откријат што ќе биде потребно за да се направи вештачката интелигенција доверлива. Некои сугерираат дека постои формула или железни закони кои ќе ја одведат вештачката интелигенција во доверливи небеса. Други укажуваат дека ќе биде потребна напорна работа и доследно и немилосрдно придржување кон принципите на етиката на вештачката интелигенција и законот за вештачка интелигенција за да се добие фалената доверба на општеството.

Современата енигма за довербата во вештачката интелигенција сама по себе не е особено нова.

Можете лесно да се вратите во доцните 1990-ти и да ја следите појавата на бараната желба за „доверливи компјутери“ од тие денови. Ова беше голем напор на технолошката индустрија да се увиди дали сите компјутери може да се направат на начин што општеството ќе го протолкува како доверлив.

Клучните прашања се состоеле од:

  • Може ли компјутерскиот хардвер да се направи таков што ќе биде доверлив?
  • Дали софтверот би можел да биде направен така што да биде доверлив?
  • Дали би можеле да поставиме глобални мрежни компјутери кои би биле доверливи?
  • И така натаму.

Преовладувачкото чувство тогаш и кое продолжува до ден-денес е дека доверливите компјутери остануваат еден вид свет грал кој, за жал, сè уште не е на дофат (како што е забележано во трудот со наслов „Доверлива вештачка интелигенција“ во Комуникации на ACM). Може убедливо да тврдите дека вештачката интелигенција е уште една компонента на обвивката за доверливост на компјутерите, но сепак вештачката интелигенција ја прави потрагата по доверба уште попредизвикувачки и несигурен. Вештачката интелигенција стана потенцијален спојлер во борбата за постигнување доверливи компјутери. Можеби најслабата алка во синџирот, како да е.

Ајде набрзина да погледнеме зошто вештачката интелигенција ни ја разбранува нашата лутина поради тоа што сме помалку од доверливи. Дополнително, ќе ги истражиме начелата на етика на вештачката интелигенција за кои се надеваме дека ќе помогнат во поткрепувањето на веќе полуподводната перцепирана доверба (или клокотот на недовербата) на денешната вештачка интелигенција. За моето тековно и опширно покривање на етика на вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Еден специфичен сегмент или дел од етиката на вештачката интелигенција што привлекува големо медиумско внимание се состои од вештачка интелигенција која покажува неповолни предрасуди и нееднаквости. Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во неетичката бездна (видете ја мојата анализа за таквите способности на врската овде).

Во еден момент, ќе споделам со вас некои сеопфатни принципи кои се во основата на етиката на вештачката интелигенција. Има многу вакви списоци кои лебдат овде и таму. Може да се каже дека сè уште не постои единствена листа на универзална привлечност и согласност. Тоа е несреќната вест. Добрата вест е дека барем има лесно достапни листи за етика на вештачката интелигенција и тие имаат тенденција да бидат доста слични. Сè што е кажано, ова сугерира дека со форма на разумна конвергенција го наоѓаме нашиот пат кон општо заедништво на она од што се состои етика на вештачката интелигенција.

Прво, ајде накратко да покриеме некои од севкупните правила за етичка вештачка интелигенција за да илустрираме што треба да биде од витално значење за секој што изработува, развива или користи ВИ.

На пример, како што е наведено од Ватикан во Рим повик за етика на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните идентификувани шест основни етички принципи за вештачка интелигенција:

  • Транспарентност: Во принцип, системите за вештачка интелигенција мора да бидат објаснети
  • Вклучување: Мора да се земат предвид потребите на сите луѓе за да може секој да има корист, а на сите поединци да им се понудат најдобри можни услови за да се изразат и да се развиваат.
  • Одговорност: Оние кои дизајнираат и применуваат употреба на вештачка интелигенција мора да продолжат со одговорност и транспарентност
  • Непристрасност: Не создавајте или дејствувајте според пристрасност, со што ќе ја зачувате правичноста и човечкото достоинство
  • Доверливост: Системите за вештачка интелигенција мора да бидат способни да работат сигурно
  • Безбедност и приватност: Системите за вештачка интелигенција мора да работат безбедно и да ја почитуваат приватноста на корисниците.

Како што е наведено од Министерството за одбрана на САД (DoD) во нивните Етички принципи за употреба на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните шест основни етички принципи за вештачка интелигенција:

  • Одговорен: Персоналот на Дод ќе има соодветни нивоа на проценка и грижа додека останува одговорен за развојот, распоредувањето и користењето на способностите на вештачката интелигенција.
  • Правично: Одделот ќе преземе намерни чекори за да се минимизира ненамерната пристрасност во способностите на вештачката интелигенција.
  • Може да се следи: Способностите за вештачка интелигенција на Одделот ќе бидат развиени и распоредени така што релевантниот персонал ќе поседува соодветно разбирање за технологијата, развојните процеси и оперативните методи применливи за способностите на вештачката интелигенција, вклучувајќи транспарентни методологии за ревизија, извори на податоци и процедура за дизајнирање и документација.
  • сигурен: Способностите за вештачка интелигенција на Одделот ќе имаат експлицитна, добро дефинирана употреба, а безбедноста, безбедноста и ефективноста на таквите способности ќе бидат предмет на тестирање и уверување во рамките на тие дефинирани употреби во текот на целиот нивен животен циклус.
  • Управувачки: Одделот ќе дизајнира и инженери способности за вештачка интелигенција за да ги исполни нивните предвидени функции, истовремено поседувајќи способност за откривање и избегнување несакани последици, како и можност за исклучување или деактивирање на распоредените системи кои покажуваат ненамерно однесување.

Дискутирав и за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички начела за вештачка интелигенција во трудот со наслов „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто сосема опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е генерално да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата во кодирањето со вештачка интелигенција што треба да биде вистинската гума што одговара на патот.

Етичките принципи на вештачка интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичката вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Како што беше претходно наведено, потребно е едно село за да се смисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките правила на вештачката интелигенција.

Ајде, исто така, да се погрижиме дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителен ВИ, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Ајде да ги задржиме работите поприземни и да ја разгледаме денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Ајде да го поврземе ова со прашањето за доверлива вештачка интелигенција

Секако не би сакале да и веруваме на вештачката интелигенција која покажува негативни предрасуди и дискриминаторски дејства. Нашето верување, во тој случај, би било дека таквата вештачка интелигенција дефинитивно не е доверлива, па затоа би се насочиле кон активно недоверба на вештачката интелигенција. Без да претераме со антропоморфната споредба (ќе кажам повеќе за антропоморфизирањето на вештачката интелигенција во еден момент), човекот што покажувал непријатни предрасуди, исто така, би бил предмет на оцена како не е особено доверлив.

Копање во доверба и доверливост

Можеби треба да погледнеме на што мислиме кога тврдиме дека веруваме или не веруваме некому или нешто. Прво, разгледајте неколку секојдневни речник дефиниции за доверба.

Примери за тоа што дефинитивно значи доверба се:

  • Сигурно потпирање на карактерот, способноста, силата или вистината на некого или нешто (Мериам-Вебстер онлајн речник).
  • Потпирање на интегритетот, силата, способноста, сигурноста, итн., на личност или работа (Речник.com)
  • Цврсто верување во веродостојноста, вистината, способноста или силата на некого или нешто (онлајн речник на Оксфордски јазици).

Би сакал да истакнам дека сите тие дефиниции се однесуваат на „некој“ и исто така се однесуваат на „нешто“ како потенцијално доверливо. Ова е забележливо бидејќи некои би можеле да инсистираат да им веруваме само на луѓето и дека чинот на доверба е резервиран исклучиво за човештвото како наша цел на доверливост. Не е така. Може да имате доверба во вашиот кујнски тостер. Ако се чини дека веродостојно го прави вашиот тост и работи рутински за да го стори тоа, сигурно може да имате привидна доверба за тоа дали тостерот е всушност доверлив.

Во истата линија на размислување, вештачката интелигенција исто така може да биде предмет на нашето гледиште за доверба. Шансите се дека довербата поврзана со вештачката интелигенција ќе биде многу посложена отколку да речеме обичен тостер. Тостерот обично може да направи само неколку дејства. Системот за вештачка интелигенција веројатно ќе биде многу покомплексен и изгледа дека работи помалку транспарентно. Нашата способност да ја процениме и утврдиме доверливоста на вештачката интелигенција е обврзана да биде многу потешка и да нуди различни предизвици.

Покрај тоа што е само покомплексен, се вели дека типичниот систем на вештачка интелигенција не е детерминистички и потенцијално саморегулирачки или самоприлагодлив. Можеме накратко да го истражиме тој поим.

Детерминистичката машина има тенденција да ги прави истите работи одново и одново, предвидливо и со видливо забележлива шема за тоа како таа работи. Може да кажете дека обичниот тостер наздравува приближно на ист начин и има контроли за тост што го ублажуваат тостирањето, од кои сите се генерално предвидливи од лицето што го користи тостерот. Спротивно на тоа, сложените системи за вештачка интелигенција често се осмислуваат да бидат недетерминистички, што значи дека тие можат да прават сосема различни работи надвор од она што инаку би го очекувале. Ова може делумно да биде дополнително засилено ако вештачката интелигенција е напишана за да се самоприлагоди, аспект што може поволно да и овозможи на вештачката интелигенција да се подобри во случајот на ML/DL, иако исто така може вознемирувачки да предизвика вештачката интелигенција да попушти или да влезе во рангирањето на лошотијата на ВИ. Можеби не знаете што ве погоди, на начин на зборување, бидејќи бевте целосно фатени од активностите на вештачката интелигенција.

Што би можеле да направиме за да се обидеме да ја доближиме вештачката интелигенција до доверливоста?

Еден пристап се состои во обид да се осигура дека оние што градат и спроведуваат вештачка интелигенција се придржуваат до збир на правила за етика на вештачката интелигенција. Како што споменаа овие истражувачи на вештачката интелигенција: „Довербата е став дека агентот ќе се однесува како што се очекува и на него може да се потпре за да ја постигне својата цел. Довербата се распаѓа по грешка или недоразбирање помеѓу агентот и поединецот кој има доверба. Психолошката состојба на доверба во вештачката интелигенција е појавно својство на сложен систем, кој обично вклучува многу циклуси на дизајн, обука, распоредување, мерење на перформансите, регулација, редизајн и преквалификација“ (означено во Комуникации на ACM, „Доверба, регулатива и вештачка интелигенција на човекот во јамката во рамките на европскиот регион“ од Стјуарт Мидлтон, Емануел Летуз, Али Хосаини и Адријан Чепмен, април 2022 година).

Суштината е дека ако можеме да ги натераме развивачите на вештачка интелигенција да се придржуваат до етичката вештачка интелигенција, тие се надеваме дека на крајот ќе произведат доверлива вештачка интелигенција. Сето ова е добро и добро, но изгледа малку непрактично на реална основа, иако е апсолутно патека што вреди да се следи.

Еве што мислам.

Да претпоставиме дека програмерите на вештачка интелигенција преземаат вредни напори за изработка на систем за вештачка интелигенција за некоја цел што генерално ќе ја наречеме X. Тие внимателно се погрижуваат вештачката интелигенција да се придржува до правилата за транспарентност на етика на вештачката интелигенција. Тие силно гарантираат дека приватноста е соодветно вградена во вештачката интелигенција. За речиси сите вообичаени принципи за етика на вештачката интелигенција, градителите на вештачката интелигенција исцрпно обезбедуваат дека вештачката интелигенција го исполнува дадениот принцип.

Дали сега треба да и верувате на таа вештачка интелигенција?

Дозволете ми да ви помогнам да ги објаснам вашите размислувања за тоа отворено прашање.

Излегува дека сајбер-измамниците успеале да се инфилтрираат во вештачката интелигенција и скришум да ја натераат вештачката интелигенција да изврши X, а сепак да ги нахранат сајбер хакерите со сите податоци што вештачката интелигенција ги собира. Со тоа, овие злосторници подмолно го поткопуваат начелото за приватност. Среќно не сте свесни дека ова се случува под капакот на вештачката интелигенција.

Со таа додадена информација, пак ќе ти го поставам истото прашање.

Дали и верувате на таа вештачка интелигенција?

Се осмелувам да кажам дека повеќето луѓе веднаш би изјавиле дека сигурно го прават не верувајте на оваа конкретна вештачка интелигенција. Можеби и порано му веруваа. Тие сега се одлучуваат повеќе да не ја сметаат вештачката интелигенција за доверлива.

Неколку клучни сознанија засновани на овој едноставен пример се вредни за размислување:

  • Динамика на доверба. Дури и најдобрите намери да се покријат сите основи за да се осигура дека етика на вештачката интелигенција е вградена во систем за вештачка интелигенција не е гаранција за она што може да се покаже или да стане вештачката интелигенција. Штом вештачката интелигенција ќе биде ставена во употреба, аутсајдерите потенцијално можат да ги поткопаат акумулациите за етичка вештачка интелигенција.
  • Намалување на довербата одвнатре. Чинот на поткопување на доверливоста не мора нужно да биде аутсајдер. Инсајдерот кој редовно го одржува системот за вештачка интелигенција може да направи грешка и да ја ослаби вештачката интелигенција кон тоа да биде помалку доверлива. Овој развивач на вештачка интелигенција можеби нема да знае што направиле.
  • Ненамерни компромиси на доверба. Самоприлагодлива или саморегулирачка вештачка интелигенција во одреден момент може да се приспособи и да се сврти кон недоверлива територија. Можеби вештачката интелигенција се обидува да ја зајакне транспарентноста на вештачката интелигенција, а сепак истовремено и несоодветно ги компромитира аспектите на приватноста.
  • Расејување на довербата. Обидот да се постигнат сите начела за етика на вештачката интелигенција со ист најголем степен на доверливост обично не е лесно остварлив бидејќи тие често се во вкрстени цели или имаат други инхерентни потенцијални конфликти. Прилично идеализирана перспектива е да се верува дека сите прописи за етичка вештачка интелигенција се усогласени со сон и сите се остварливи до одреден подеднаков максимизиран степен.
  • Довербата може да биде скапа за да се постигне. Трошоците за обид и постигнување врвен изглед на доверлива вештачка интелигенција преку преземање на различни обемни и исцрпни чекори и почитување на точните принципи за етика на вештачката интелигенција ќе бидат релативно високи. Лесно може да тврдите дека цената би била преголема во смисла на користење на некои системи со вештачка интелигенција кои инаку имаат важна вредност за општеството, дури и ако вештачката интелигенција беше ќе речеме помалку од идеална од желбата за доверливост.
  • И така натаму.

Немојте погрешно да ги толкувате претходните забелешки за да укажеме дека некако треба да ги спречиме напорите за темелно да изградиме и да ставиме доверлива вештачка интелигенција. Накратко би го исфрлиле бебето со водата за капење, како да е. Правилната интерпретација е дека ние треба да ги правиме тие активности за доверба за да ја доведеме вештачката интелигенција во доверливо разгледување, а сепак тоа само по себе не е лек или сребрен куршум.

Повеќекратни патишта до доверлива вештачка интелигенција

Постојат важни дополнителни повеќестрани начини да се стремиме кон доверлива вештачка интелигенција.

На пример, како што претходно опфатив во моите колумни, огромен број новопојавени закони и регулативи во врска со вештачката интелигенција имаат за цел да ги поттикнат креаторите на вештачката интелигенција кон измислување доверлива вештачка интелигенција, види врската овде врската овде.

Овие законски заштитни огради се клучни како сеопфатно средство за да се осигуриме дека оние што смислуваат вештачка интелигенција се сметаат за целосно одговорни за нивната вештачка интелигенција. Без такви потенцијални правни лекови и законски казни, оние кои ја нарушуваат брзата вештачка интелигенција на пазарот веројатно ќе продолжат да го прават тоа со малку или воопшто сериозно внимание за постигнување доверлива вештачка интелигенција. Би можел особено да додадам дека ако тие закони и регулативи се слабо осмислени или несоодветно имплементирани, тие за жал би можеле да го поткопаат стремежот за доверлива вештачка интелигенција, можеби иронично и чудно поттикнувајќи недоверлива вештачка интелигенција над доверлива вештачка интелигенција (видете ги дискусиите во мојата колумна за дополнително објаснување).

Јас, исто така, бев верен застапник за она што јас жестоко го нарекував Ботови ангел чувар со вештачка интелигенција (видете го моето покривање на врската овде). Ова е претстојниот метод или пристап за обид за борба против огнот со оган, имено користење на вештачка интелигенција за да ни помогне во справувањето со друга вештачка интелигенција што може или не може да биде доверлива.

Прво, некој контекст на позадина ќе биде корисен.

Да претпоставиме дека се одлучувате да се потпрете на систем за вештачка интелигенција за кој не сте сигурни во неговата доверливост. Клучна грижа може да биде тоа што сте сами во вашите обиди да откриете дали треба да и се верува на вештачката интелигенција или не. ВИ е потенцијално пресметковно побрз од вас и може да ве искористи. Ви треба некој или нешто на ваша страна да ви помогне.

Една перспектива е дека секогаш треба да постои човек-во-јамка што ќе ви помогне додека користите систем за вештачка интелигенција. Сепак, ова е проблематично решение. Ако вештачката интелигенција работи во реално време, за што ќе разговараме моментално кога станува збор за појавата на самоуправувачки автомобили базирани на вештачка интелигенција, можеби нема да биде доволно да се има човек во јамката. Вештачката интелигенција би можела да дејствува во реално време и до моментот кога одреден човек-во-јамка ќе влезе на сликата за да открие дали вештачката интелигенција работи правилно, можеби веќе се случил катастрофален резултат.

Настрана, ова носи уште еден фактор за довербата. Ние обично доделуваме ниво на доверба врз основа на контекстот или околностите со кои се соочуваме. Можеби целосно му верувате на синот или ќерката на вашето дете дека ќе ви бидат верни, но ако сте на планинарење и одлучите да се потпрете на детето да ви каже дали е безбедно да стапнете на работ на карпа, мислам дека би биле мудри. да размисли дали детето може да даде таков вид совети за живот или смрт. Детето може да го стори тоа искрено и искрено, а сепак, да не биде во можност адекватно да даде таков совет.

Истиот поим е поврзан со довербата кога станува збор за вештачката интелигенција. Системот за вештачка интелигенција што го користите за да играте дама или шах веројатно не е вклучен во никакви размислувања за живот или смрт. Можете да бидете поудобни со вашата задача на доверба. Самоуправувачки автомобил базиран на вештачка интелигенција и кој се движи по автопат со големи брзини бара многу понапорно ниво на доверба. Најмалиот удар на системот за возење со вештачка интелигенција може директно да доведе до ваша смрт и смрт на други.

Во објавеното интервју на Beena Ammanath, извршен директор на Global Deloitte AI Institute и автор на книгата Доверлива вештачка интелигенција, сличен акцент на разгледување на контекстуалните аспекти за тоа каде доаѓа доверливоста на вештачката интелигенција: „Ако градите решение за вештачка интелигенција што прави дијагноза на пациентот, правичноста и пристрасноста се супер важни. Но, ако градите алгоритам кој предвидува дефект на млазниот мотор, правичноста и пристрасноста не се толку важни. Доверлива вештачка интелигенција е навистина структура за да започнете да размислувате за димензиите на довербата во вашата организација“ (VentureBeat, 22 март 2022 година).

Кога разговарате за доверлива вештачка интелигенција, можете да ја толкувате оваа тема на многу начини.

На пример, доверлива вештачка интелигенција е нешто што сите го гледаме како посакувана и аспирациона цел, имено дека треба да сакаме да осмислиме и да промовираме доверлива вештачка интелигенција. Постои уште една употреба на фразата. Донекаде алтернативна употреба е тоа доверлива вештачка интелигенција е состојба на состојба или мерење, така што некој може да тврди дека создал систем на вештачка интелигенција што е пример на доверлива вештачка интелигенција. Можете исто така да ја користите фразата доверлива вештачка интелигенција да предложи метод или пристап што може да се користи за да се постигне доверливост на вештачката интелигенција. итн.

На слична белешка, верувам дека сфаќате дека не е целата вештачка интелигенција иста и дека треба да внимаваме да не даваме сеопфатни изјави за целата вештачка интелигенција. Одреден систем за вештачка интелигенција веројатно ќе биде значително различен од друг систем со вештачка интелигенција. Еден од тие системи за вештачка интелигенција може да биде многу доверлив, додека другиот може да биде маргинално доверлив. Бидете внимателни при некако да претпоставите дека вештачката интелигенција е монолит кој е или целосно доверлив или целосно недоверлив.

Ова едноставно не е така.

Би сакал следно накратко да опфатам некои од моите тековни истражувања за доверлива вештачка интелигенција што може да ви бидат интересни, покривајќи ја улогата што произлегува од Ботови ангел чувар со вештачка интелигенција.

Еве како оди.

Вие би биле вооружени со систем за вештачка интелигенција (бот ангел чувар на вештачката интелигенција) кој е осмислен да ја процени доверливоста на некој друг систем со вештачка интелигенција. Ботот ангел чувар со вештачка интелигенција има најголем фокус на вашата безбедност. Размислете за ова како да имате средства да ја следите вештачката интелигенција на која се потпирате со тоа што имате различен систем за вештачка интелигенција во вашиот вистински џеб, можеби работи на вашиот паметен телефон или други такви уреди. Вашиот пословичен чувар на вештачка интелигенција може да пресмета врз основа на тоа што го прави и вештачката интелигенција на која се потпирате, работи со големи брзини и пресметувајќи ја ситуацијата во реално време, многу побрзо отколку што тоа би можело да го направи човек-во-јамка.

Можеби на прв поглед мислите дека вештачката интелигенција на која веќе се потпирате треба да има некои внатрешна Заштитни огради со вештачка интелигенција што го прават истото како овој бот ангел чувар со вештачка интелигенција одделно пресметан. Да, тоа секако би било посакувано. Еден проблем е дека заштитните огради за вештачка интелигенција вградени во систем со вештачка интелигенција може да бидат интегрално и штетно усогласени со вештачката интелигенција сама по себе, така што наводната заштитна ограда за вештачка интелигенција повеќе не може во извесна смисла независно да ја потврди или да ја потврди вештачката интелигенција.

Контрастната идеја е дека вашиот бот ангел чувар на вештачката интелигенција е независен или механизам за вештачка интелигенција од трета страна што се разликува од вештачката интелигенција на која се потпирате. Таа се наоѓа надвор од другата вештачка интелигенција, останува посветена на вас и не е посветена на вештачката интелигенција што се следи или оценува.

Едноставно средство за размислување за ова може да се изрази преку следните поедноставени изјави слични на равенки. Можеме да кажеме дека „П“ сака потенцијално да му верува на „Р“ да изврши одредена задача „Х“:

Ова би било следново кога се вклучени само луѓе:

  • Лицето P му верува на лицето R да ја изврши задачата X.

Кога ќе одлучиме да се потпреме на вештачката интелигенција, изјавата се преобликува на ова:

  • Лицето P му верува на примерот на вештачката интелигенција-R да ја изврши задачата X.

Можеме да го додадеме ботот ангел чувар на вештачката интелигенција со велејќи го ова:

  • Лицето P му верува на примерот со вештачка интелигенција-R да ја изврши задачата X како што е надгледувана од бот ангел чувар на вештачката интелигенција-З

Ботот ангел чувар на вештачката интелигенција неуморно и немилосрдно ја проценува вештачката интелигенција на која се потпирате. Како таков, вашиот практичен чувар на вештачка интелигенција може да ве предупреди дека довербата на оваа друга вештачка интелигенција е неоправдана. Или, чуварот на вештачката интелигенција би можел електронски да комуницира со другата вештачка интелигенција за да се обиде да се погрижи која било разлика од тоа да биде доверлива брзо ќе се исправи, и така натаму (видете го моето покривање за таквите детали на врската овде).

Метафората на резервоарот за доверба во доверба

Бидејќи разговараме за различни нивоа на доверба, можеби ќе најдете корисна метафора за доверливост со тоа што ќе ја сфатите довербата како еден вид резервоар.

Имате одредена доза на доверба за одредена личност или работа во одредена околност во одреден момент во времето. Нивото на доверба ќе се зголеми или падне, во зависност од тоа што друго се случува поврзано со таа одредена личност или работа. Довербата може да биде на нула ниво кога немате никаква доверба за личноста или работа. Довербата може да биде негативна кога ќе се осмелите да имате недоверба кон таа личност или работа.

Во случај на системи со вештачка интелигенција, вашиот резервоар за доверба за конкретната вештачка интелигенција на која се потпирате во одредена околност ќе се зголеми или падне зависно од вашата проценка на доверливоста на вештачката интелигенција. Понекогаш, можеби сте добро свесни за ова различно ниво на доверба во вештачката интелигенција, додека во други случаи можеби сте помалку свесни и повеќе со тоа што ќе судите за доверливоста.

Начините на кои разговаравме овде за средствата за зајакнување на нивоата на доверба за вештачката интелигенција вклучуваат:

  • Почитување на етиката на вештачката интелигенција. Ако вештачката интелигенција на која се потпирате е измислена со обид да се придржувате до правилните правила за етика на вештачката интелигенција, веројатно ќе го искористите ова разбирање за да го зголемите нивото на вашиот резервоар за доверба за тој конкретен систем за вештачка интелигенција. Како споредна забелешка, исто така е можно да се генерализирате на други системи за вештачка интелигенција за нивната доверливост, исто така, иако ова понекогаш може да биде погрешна форма на она што јас го нарекувам Довербата на вештачката интелигенција се шири (бидете претпазливи во тоа!).
  • Користете Human-In-The-Loop. Ако вештачката интелигенција има човек-во-јамка, може позитивно да ја зголемите вашата перцепирана доверба во вештачката интелигенција.
  • Воспоставете закони и прописи. Ако постојат закони и прописи поврзани со овој конкретен тип на вештачка интелигенција, исто така може да го зголемите нивото на доверба.
  • Вработете бот ангел чувар на вештачка интелигенција. Ако имате подготвен бот ангел чувар со вештачка интелигенција, и ова дополнително ќе го подигне нивото на вашата доверба.

Како што беше споменато претходно, довербата може да биде прилично кршлива и да се распадне во еден момент (т.е. резервоарот за доверба брзо и наеднаш ја исфрла целата изградена доверба).

Замислете дека сте во самоуправувачки автомобил базиран на вештачка интелигенција и вештачката интелигенција што вози одеднаш прави радикално вртење надесно, предизвикувајќи тркалата да квичат и речиси принудувајќи го автономното возило во загрозувачко превртување. Што би се случило со вашето ниво на доверба? Се чини дека дури и ако претходно сте ја држеле вештачката интелигенција на зголемено ниво на доверба, драматично и нагло ќе го намалите нивото на доверба, разумно.

Во овој момент на оваа тешка дискусија, би се обложил дека сакате дополнителни илустративни примери кои би можеле да ја покажат природата и опсегот на доверлива вештачка интелигенција. Има посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, за да може полесно да се сфати донекаде теоретската природа на темата. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема со вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за стремежот кон доверлива вештачка интелигенција, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските самоуправувачки автомобили се оние каде што вештачката интелигенција го вози автомобилот целосно самостојно и нема никаква човечка помош за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште нема вистински самоуправувачки автомобил на Ниво 5, а сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту колку време ќе биде потребно за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и доверлива вештачка интелигенција

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Верувам дека обезбедува доволно литија предупредувања за да го поткрепам она за што ќе зборувам.

Сега сме подготвени да направиме длабоко нурнување во самоуправувачките автомобили и доверливата вештачка интелигенција.

Довербата е сè, особено во случајот со самоуправувачките автомобили базирани на вештачка интелигенција.

Се чини дека општеството претпазливо гледа на појавата на самоуправувачки автомобили. Од една страна, постои голема надеж дека доаѓањето на вистинските самоуправувачки автомобили демонстративно ќе го намали бројот на годишни жртви поврзани со автомобили. Само во Соединетите Држави има околу 40,000 годишни смртни случаи и околу 2.5 милиони повредени поради сообраќајни несреќи, видете ја мојата колекција на статистика на врската овде. Луѓето пијат и возат. Луѓето возат додека се расеани. Задачата за возење автомобил се чини дека се состои во можност постојано и непогрешливо да се фокусирате на возењето и да избегнете да влезете во сообраќајни несреќи. Како такви, би можеле со сон да се надеваме дека системите за возење со вештачка интелигенција ќе ги водат самоуправувачките автомобили постојано и непогрешливо. Можете да ги сфатите самоуправувачките автомобили како двојни, што се состои од намалување на обемот на смртни случаи и повреди од сообраќајни несреќи, заедно со потенцијално овозможување на мобилноста достапна на многу поширока и достапна основа.

Но, загриженоста во меѓувреме се наѕира над општествените перцепции за тоа дали самоуправувачките автомобили ќе бидат доволно безбедни за да бидат на нашите јавни патишта воопшто.

Ако дури и еден самоуправувачки автомобил влезе во сообраќајна несреќа или судир што ќе доведе до една смрт или тешка повреда, веројатно може да очекувате дека денешната донекаде изградена доверба кон оние автомобили без возачи базирани на вештачка интелигенција нагло ќе опадне. Ова го видовме кога се случи сега озлогласениот инцидент во Аризона во кој учествуваше малку (не баш) самоуправувачки автомобил кој налета и усмрти пешак (види го моето известување на оваа врска тука).

Некои експерти посочуваат дека е неправедно и несоодветно да се заснова довербата на самоуправувачките автомобили со вештачка интелигенција на аспектот дека само една таква следна несреќа или судир што предизвикува смрт може да ги поткопа веќе релативно без судири јавните испитувања на патиштата. Дополнително, на понатамошна неправедна основа, шансите се дека без разлика која марка или модел на автомобил со самоуправување со вештачка интелигенција ќе се вплетка во тажен инцидент, општеството несомнено ќе ги обвини сите марки на самоуправувачки автомобили.

Целосноста на самоуправувачките автомобили може накратко да биде извалкана и индустријата како целина може да претрпи огромни реакции што ќе доведе до можно затворање на сите јавни проби на патиштата.

Придонес за ваквиот удар се наоѓа во бесмислените прокламации на отворените поборници за самоуправувачки автомобили дека сите автомобили без возач ќе бидат нераспадливи. Оваа идеја дека не може да се урне не само што е целосно погрешна (види врската овде), подмолно ја поставува индустријата за самоуправувачки автомобили за тотално ненаменски сет на очекувања. Овие чудни и неостварливи изјави дека ќе има нула смртни случаи поради самоуправувачки автомобили ја поттикнуваат заблудата дека секоја сообраќајна несреќа без возач е сигурен знак дека целиот комплет и кабудл се за ништо.

Постои посебна тага да се сфати дека напредокот кон самоуправувачките автомобили и акумулацијата на општествена доверба од инчи во еден момент може да се прекине за миг. Тоа ќе биде еден подлец витрина за кршливоста на довербата.

Заклучок

Многу производители на автомобили и технолошки фирми за самоуправување генерално ги почитуваат принципите на етика на вештачката интелигенција, правејќи го тоа за да се обидат да изградат и да обезбедат доверлива вештачка интелигенција во смисла на безбедни и сигурни самоуправувачки автомобили базирани на вештачка интелигенција. Ве молиме, сфатете дека некои од тие фирми се посилни и попосветени на правилата за етичка вештачка интелигенција од другите. Исто така, постојат повремени стартапи поврзани со автомобил со самоуправување или почетници кои се чини дека отфрлаат голем дел од камен-темелниците на етиката на вештачката интелигенција (видете го мојот преглед на врската овде).

На други фронтови, новите закони и регулативи кои ги покриваат самоуправувачките автомобили постепено се ставаат во правните книги. Дали ги имаат потребните заби за да ги поддржат е друго прашање, исто така, дали спроведувањето на тие закони се сфаќа сериозно или се занемарува (видете ги моите колумни за анализи за ова).

Исто така, постои и високотехнолошки агол на ова. Предвидував дека постепено ќе гледаме варијанти на ботови ангел чувар со вештачка интелигенција кои ќе дојдат до израз во арената за автономни возила и самоуправувачки автомобили. Сè уште не сме таму. Ова ќе стане поприсутно откако популарноста на самоуправувачките автомобили ќе стане поширока.

Оваа последна точка носи позната реплика за довербата што несомнено веќе ја знаете напамет.

Верувајте, но проверете.

Можеме да си дозволиме да ја прошириме нашата доверба, можеби великодушно. Во меѓувреме, треба да гледаме како јастреб за да се увериме дека довербата што ја создаваме се потврдува и со зборови и со дела. Ајде да ѝ веруваме малку на вештачката интелигенција, но бескрајно проверуваме дека ја даваме нашата доверба соодветно и со широко отворени очи.

Можете да ми верувате за тоа.

Извор: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/