Етика на вештачката интелигенција скептична во врска со воспоставувањето таканаречени закони за вештачка интелигенција со црвено знаме за повикување пристрасни алгоритми во автономни системи со вештачка интелигенција

Ајде да зборуваме за законите за црвено знаме.

Несомнено знаете дека поимот Закони за црвено знаме е нашироко покриен во вестите во последно време. Насловите што ја покриваат темата се многу. Страстите и страсните дебати за такви прашања се на врвот на умот како општествена грижа и ги повлекуваат денешните и брзо појавните закони за оружјето со црвено знаме.

Сепак, би се осмелил да кажам дека можеби не сте запознаени со другите закони за црвено знаме донесени во доцните 1800-ти кои се однесуваат на моторизираните возила и претходниците на денешните секојдневни модерни автомобили. Да, тоа е точно, законите за црвено знаме се враќаат во историјата, иако опфаќаат други теми во споредба со денешниот современ фокус. Овие обично се нарекуваат закони за сообраќај со црвено знаме.

Овие сега веќе вековни и целосно непостоечки закони бараа секој моторизиран вагон или мотор што се движи со пареа во тоа време да има возрасен човек пред возилото и да носи црвено знаме за предупредувачки цели. Идејата беше дека добитокот би можел да се вознемири од тие бучни и нерамномерни производи кои полека и нерамномерно се движеле по нечистотијата или по маргинално асфалтираните патишта, со што некој ќе оди заедно пред монтажата додека енергично вее црвено знаме, се надеваме дека ќе избегне појава на несреќи. Во случај да се прашувате, железниците и возовите се сметаа за исклучени од истите закони бидејќи тие беа возила интегрално врзани за шини и имаа други закони кои ги покриваат нивните дејствија.

Замислете да мора да вееме црвени знамиња денес како услов за секој автомобил на нашите јавни патишта.

На пример, обичен возач што ќе се спушти по улицата во вашата населба ќе мора да се погрижи возрасен што вее црвено знаме да биде присутен и да продефилира пред автомобилот во движење. Ова треба да се случи за секое возило што минува по вашата улица. Можеби луѓето ќе станат работници на црвено знаме што ќе ги изнајмуваат возачите на автомобили кои инаку немале пријател или роднина кој би можел да оди пред нив и да ја направи предвидената акција за мавтање.

Во денешно време имаме тенденција да го поврзуваме веењето на црвено знаме поврзано со автопатот со градилиштата за изградба на патишта. Како што ќе се приближите до раскопаниот пат, работниците ќе држат црвено знаме за да ви го привлечат вниманието. Ова ви кажува да забавите и да бидете на штрек. Може да има булдожер што ќе се навлезе во вашата патека. Може да има џиновска дупка напред и ќе треба внимателно да се движите околу неа.

Но, да се вратиме на употребата на црвени знамиња во 1800 година.

Верувале или не, црвеното знаме требаше да биде најмалку една осмина од милја подалеку пред претстојната моторизирана машина. Тоа изгледа како доста долго растојание. Сепак, се претпоставува дека тоа имало многу смисла во тие денови. Зачудувачките звуци на моторот и можеби самото гледање на возилото би можеле да бидат доволни за да ги вознемират животните. Некои од законите за црвено знаме од таа ера исто така бараа светлечко црвено светло да се држи нагоре во текот на ноќта, така што визуелно очигледно црвено предупредување за претпазливост може да се види од затемнето растојание.

Генерално, мислам дека е фер да се тврди дека ние како општество тежнееме да го поврзуваме црвеното знаме како еден вид сигнал или знак дека нешто потенцијално не е во ред или барем му треба наше посветено внимание.

Подгответе се за малку пресврт на овој феномен со црвено знаме.

Постои тврдење дека треба да бараме одредби за црвено знаме кога станува збор за вештачка интелигенција (ВИ).

Тоа е малку зачудувачки и изненадувачки концепт што предизвикува многу глави гребење. Можеби сте збунети како или зошто треба да постои т.н Закони за вештачка интелигенција за црвено знаме. Ве молиме имајте предвид дека ова го означувам како Закони за вештачка интелигенција со црвено знаме за да ја разликувам работата од законите за сообраќај со црвено знаме (како оние од доцните 1800-ти) и, исто така, да ги издвојам од денешните други пораспространети закони за пиштоли со црвено знаме.

Дали навистина ни се потребни закони за вештачка интелигенција со црвено знаме кои се јасно и единствено ориентирани кон прашањата за вештачка интелигенција?

Оние кои го поддржуваат предложениот пристап ќе инсистираат на тоа дека апсолутно ни се потребни законски одредби кои ќе помогнат во сузбивањето на вештачката интелигенција која содржи несоодветни предрасуди и делува на дискриминаторски начини. Во моментов, градењето и распоредувањето на вештачката интелигенција се слични на околност на Дивиот Запад. Напорите за зауздување на лошата вештачка интелигенција во моментов зависат од формулацијата и усвојувањето на упатствата за етика на вештачката интелигенција. За моето тековно и опширно покривање на етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Полека се смислуваат и се донесуваат закони кои ги поставуваат лошата вештачка интелигенција, видете ја мојата покриеност на врската овде. Некои се загрижени дека пратениците не одат доволно брзо. Се чини дека портите од поплави за да се дозволи поттикнување на пристрасна вештачка интелигенција во светот се во голема мера широко отворени во моментов. Раката вели дека додека новите закони ќе влезат во книгите, злобниот џин веќе ќе биде надвор од шишето.

Не толку брзо, контрааргументите одат. Грижите се дека ако законите се воведат премногу брзо, ќе ја убиеме златната гуска, како што беше, при што напорите за вештачка интелигенција ќе пресушат и нема да ги добиеме општествените придобивки од новите системи за вештачка интелигенција. Програмерите и фирмите на вештачката интелигенција кои сакаат да користат вештачка интелигенција може да се исплашат ако ненадејно се воведат низа нови закони од Византија што ја регулираат вештачката интелигенција на федерално, државно и локално ниво, а да не ги спомнуваме меѓународните закони поврзани со вештачката интелигенција кои исто така напредуваат.

Во оваа неуредна афера доаѓа повикот за закони за вештачка интелигенција на црвено знаме.

Пред да навлеземе во уште малку месо и компири за дивите и волнените размислувања што се во основата на предвидениот закон за вештачка интелигенција за црвено знаме, ајде да воспоставиме некои дополнителни основи за длабоко суштински теми. Треба накратко да се нурнеме во етиката на вештачката интелигенција и особено доаѓањето на машинското учење (ML) и длабокото учење (DL).

Можеби сте нејасно свесни дека еден од најгласните гласови деновиве во полето на вештачката интелигенција, па дури и надвор од полето на вештачката интелигенција, се состои од галама за поголем привид на етичка вештачка интелигенција. Ајде да погледнеме што значи да се однесуваме на етика и етичка вештачка интелигенција. Згора на тоа, ќе истражиме што мислам кога зборувам за машинско учење и за длабоко учење.

Еден специфичен сегмент или дел од етиката на вештачката интелигенција што привлекува големо медиумско внимание се состои од вештачка интелигенција која покажува неповолни предрасуди и нееднаквости. Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во неетичката бездна (видете ја мојата анализа за таквите способности на врската овде).

Во еден момент, ќе споделам со вас некои сеопфатни принципи кои се во основата на етиката на вештачката интелигенција. Има многу вакви списоци кои лебдат овде и таму. Може да се каже дека сè уште не постои единствена листа на универзална привлечност и согласност. Тоа е несреќната вест. Добрата вест е дека барем има лесно достапни листи за етика на вештачката интелигенција и тие имаат тенденција да бидат доста слични. Сè што е кажано, ова сугерира дека со форма на разумна конвергенција го наоѓаме нашиот пат кон општо заедништво на она од што се состои етика на вештачката интелигенција.

Прво, ајде накратко да покриеме некои од севкупните правила за етичка вештачка интелигенција за да илустрираме што треба да биде од витално значење за секој што изработува, развива или користи ВИ.

На пример, како што е наведено од Ватикан во Рим повик за етика на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните идентификувани шест основни етички принципи за вештачка интелигенција:

  • Транспарентност: Во принцип, системите за вештачка интелигенција мора да бидат објаснети
  • Вклучување: Мора да се земат предвид потребите на сите луѓе за да може секој да има корист, а на сите поединци да им се понудат најдобри можни услови за да се изразат и да се развиваат.
  • Одговорност: Оние кои дизајнираат и применуваат употреба на вештачка интелигенција мора да продолжат со одговорност и транспарентност
  • Непристрасност: Не создавајте или дејствувајте според пристрасност, со што ќе ја зачувате правичноста и човечкото достоинство
  • Доверливост: Системите за вештачка интелигенција мора да бидат способни да работат сигурно
  • Безбедност и приватност: Системите за вештачка интелигенција мора да работат безбедно и да ја почитуваат приватноста на корисниците.

Како што е наведено од Министерството за одбрана на САД (DoD) во нивните Етички принципи за употреба на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните шест основни етички принципи за вештачка интелигенција:

  • Одговорен: Персоналот на Дод ќе има соодветни нивоа на проценка и грижа додека останува одговорен за развојот, распоредувањето и користењето на способностите на вештачката интелигенција.
  • Правично: Одделот ќе преземе намерни чекори за да се минимизира ненамерната пристрасност во способностите на вештачката интелигенција.
  • Може да се следи: Способностите за вештачка интелигенција на Одделот ќе бидат развиени и распоредени така што релевантниот персонал ќе поседува соодветно разбирање за технологијата, развојните процеси и оперативните методи применливи за способностите на вештачката интелигенција, вклучувајќи транспарентни методологии за ревизија, извори на податоци и процедура за дизајнирање и документација.
  • сигурен: Способностите за вештачка интелигенција на Одделот ќе имаат експлицитна, добро дефинирана употреба, а безбедноста, безбедноста и ефективноста на таквите способности ќе бидат предмет на тестирање и уверување во рамките на тие дефинирани употреби во текот на целиот нивен животен циклус.
  • Управувачки: Одделот ќе дизајнира и инженери способности за вештачка интелигенција за да ги исполни нивните предвидени функции, истовремено поседувајќи способност за откривање и избегнување несакани последици, како и можност за исклучување или деактивирање на распоредените системи кои покажуваат ненамерно однесување.

Дискутирав и за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички начела за вештачка интелигенција во трудот со наслов „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто сосема опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е генерално да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата во кодирањето со вештачка интелигенција што треба да биде вистинската гума што одговара на патот.

Принципите за етика на вештачката интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичката вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Како што беше претходно наведено, потребно е едно село за да се смисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките правила на вештачката интелигенција.

Ајде, исто така, да се погрижиме дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителен ВИ, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Ајде да ги задржиме работите поприземни и да ја разгледаме денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Да се ​​вратиме на нашиот фокус на законите за вештачка интелигенција на црвено знаме.

Основниот концепт е дека луѓето ќе можат да подигнат црвено знаме секогаш кога ќе веруваат дека системот за вештачка интелигенција работи на неправилно пристрасен или дискриминаторски начин. Вие нема да кревате физичко знаме сам по себе, туку едноставно ќе користите некои електронски средства за да ја соопштите вашата загриженост. Црвеното знаме дел од шемата или пристапот е повеќе метафора отколку физичко олицетворение.

Преправајте се дека аплицирате за станбен кредит. Одлучувате да користите онлајн банкарска услуга за да аплицирате за заем. Откако ќе внесете некои лични податоци, моментално го чекате системот за вештачка интелигенција што се користи за да одлучите дали сте достојни за заем или не. Вештачката интелигенција ви кажува дека сте одбиени за заемот. По барањето објаснување зошто сте одбиени, се чини дека текстуалната нарација ви сугерира дека вештачката интелигенција користела непотребни пристрасни фактори како дел од алгоритмот за одлучување.

Време е да се подигне црвено знаме за вештачката интелигенција.

Каде точно ќе се вее ова црвено знаме?

Тоа е прашање од милион долари.

Едно гледиште е дека треба да поставиме национална база на податоци што ќе им овозможи на луѓето да ги означат нивните црвени знамиња поврзани со вештачката интелигенција. Некои велат дека тоа треба да го регулира федералната влада. Федералните агенции ќе бидат одговорни да ги испитаат црвените знамиња и да и помогнат на пошироката јавност за вистинитоста и справувањето со веројатно „лошата вештачка интелигенција“ што ги поттикнала извештаите за црвените знамиња.

Национален закон за вештачка интелигенција за црвено знаме навидум ќе биде воспоставен од Конгресот. Законот ќе наведе што е црвено знаме кое е поврзано со вештачката интелигенција. Законот би опишувал како се подигаат овие црвени знамиња кои предизвикуваат вештачка интелигенција. И така натаму. Исто така, може да се случи и поединечни држави да се одлучат да изработат свои закони за вештачка интелигенција со црвено знаме. Можеби тие го прават тоа наместо национална иницијатива, или го прават тоа за да ги засилат деталите кои се особено привлечни за нивната специфична состојба.

Критичарите на федералната или која било владина програма за вештачка интелигенција Red Flag би тврделе дека ова е нешто што може да го направи приватната индустрија и дека не ни треба Големиот брат да дојде до израз. Индустријата би можела да воспостави онлајн складиште во кое луѓето ќе можат да регистрираат црвени знамиња за системите за вештачка интелигенција. Акцијата за самополициско работење од страна на индустријата доволно би се справила со овие прашања.

Загриженост во врска со наводниот индустриски пристап е што изгледа дека мириса на пријателство. Дали фирмите би биле спремни да се придржуваат до некоја приватна база на податоци за вештачка интелигенција Red Flag? Многу фирми потенцијално би ги игнорирале означените црвени знамиња за нивната вештачка интелигенција. Нема да има остри заби за да се натераат компаниите да се справат со внесените црвени знамиња.

Еј, приврзаниците на пристапот на приватниот сектор звучат неверојатно, ова би било слично на националната услуга слична на Yelp. Потрошувачите би можеле да ги погледнат црвените знамиња и сами да одлучат дали сакаат да соработуваат со компании кои собраа голем број црвени знамиња ориентирани кон вештачката интелигенција. Банка која добива тони црвени знамиња за нивната вештачка интелигенција ќе мора да обрне внимание и да ги обнови своите системи за вештачка интелигенција, така што логиката оди, во спротивно потрошувачите би ја избегнале фирмата како чумата.

Дали целиот овој пристап е преземен од владата или од индустријата е само врвот на ледениот брег на трнливите прашања со кои се соочува предложениот постулат на законите за вештачка интелигенција за црвено знаме.

Ставете се во кожата на фирма која развила или користи вештачка интелигенција. Можно е потрошувачите да креваат црвени знамиња иако немало одржлива основа за тоа. Кога луѓето би можеле слободно да објават црвено знаменце за вештачката интелигенција, би можеле да бидат во искушение да го сторат тоа по желба, или можеби поради одмазда против фирма која инаку не направила ништо лошо кон потрошувачот.

Накратко, може да има многу лажно-позитивни црвени знамиња за вештачката интелигенција.

Друго внимание е масивната големина или големина на добиените црвени знамиња. Лесно може да има кренати милиони на милиони црвени знамиња. Кој ќе се надоврзе на сите тие црвени знамиња? Која би била цената за да се направи тоа? Кој ќе плати за последователните напори за црвено знаме? итн.

Ако сакате да кажете дека секој што регистрира или пријавува црвено знаме за вештачката интелигенција треба да плати такса, вие сте влегле во матно и подмолно царство. Загриженоста би била дека само богатите ќе можат да си дозволат да креваат црвени знамиња. Ова, пак, имплицира дека осиромашените нема да можат подеднакво да учествуваат во активностите со црвено знаме и во суштина немаат место за предупредување за неповолна вештачка интелигенција.

Засега само уште еден дополнителен пресврт, имено дека ваквите закони или упатства за црвено знаменце за вештачката интелигенција се чини дека го следат фактот наместо да служат како предупредување претходно.

Враќајќи се на законите за сообраќај со црвено знаме, акцентот на користењето на црвено знаме беше да се избегне несреќа за почеток. Црвеното знаме требаше да биде многу понапред од претстојниот болид. Со тоа што ќе се најде пред возилото, добитокот ќе биде предупреден и оние што го чуваат добитокот ќе знаат дека треба да преземат мерки на претпазливост поради вознемирувачкиот извор што наскоро ќе пристигне.

Ако луѓето можат само да кренат црвено знаме за вештачката интелигенција која навидум веќе им наштетила или ги поткопувала нивните права, пословичен коњ веќе е надвор од шталата. Сè што се чини дека ова постигнува е дека се надеваме дека другите луѓе кои доаѓаат сега ќе знаат да бидат претпазливи за тој систем на вештачка интелигенција. Во меѓувреме веќе настрадало лицето за кое се тврди дека е згрешено.

Некои сугерираат дека можеби би можеле да им дозволиме на луѓето да креваат црвени знамиња за вештачката интелигенција осомничениот може да бидат пристрасни, дури и ако не ја користеле вештачката интелигенција и не биле директно погодени од вештачката интелигенција. Така, црвеното знаме се вее пред да се направи штетата.

Да, возврати, навистина ќе ги претворите црвените знамиња за справување со вештачката интелигенција во целосно неуправувана и хаотична работа. Ако некој од која било причина може да крене црвено знаменце за систем со вештачка интелигенција, и покрај тоа што воопшто не направил ништо со таа вештачка интелигенција, ќе бидете преплавени со црвени знамиња. Уште полошо, нема да можете да ја разликувате пченицата од плевата. Целиот приод со црвено знаме ќе пропадне под сопствената тежина, симнувајќи ја добрината на идејата дозволувајќи им на флоцам и рифф да го потопат целиот брод.

Вртоглави и збунувачки.

Во овој момент од оваа тешка дискусија, би се обложил дека сакате некои илустративни примери кои би можеле да ја покажат оваа тема. Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за законите за вештачка интелигенција со црвено знаме, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските самоуправувачки автомобили се оние каде што вештачката интелигенција го вози автомобилот целосно самостојно и нема никаква човечка помош за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште нема вистински самоуправувачки автомобил на Ниво 5, а сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту колку време ќе биде потребно за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и закони за вештачка интелигенција со црвено знаме

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Се надевам дека тоа обезбедува доволна литанија на предупредувања за да биде основата на она што ќе го кажам.

Ајде да скицираме сценарио кое може да го искористи законот за вештачка интелигенција за црвено знаме.

Влегувате во автомобил самоуправувачки базиран на вештачка интелигенција и сакате автономното возило да ве одведе до вашата локална самопослуга. За време на релативно краткото патување, вештачката интелигенција оди по пат што ви се чини дека не е во ред. Наместо да оди на најдиректниот начин, вештачката интелигенција се движи кон улици кои не се движат, што предизвикува времето на возење да биде повисоко отколку што вообичаено би можело да биде.

Што се случува?

Претпоставувајќи дека плаќате за користење на самоуправувачки автомобил, можеби се сомневате дека вештачката интелигенција е програмирана да вози подолг пат за да се обиде да ја зголеми цената или цената на патувањето. Секој што некогаш се качил на конвенционална кабина управувана од луѓе знае за измамата што може да се случи за да добие повеќе тесто на мерачот. Се разбира, кога луѓето имаат ГПС на нивните паметни телефони додека се возат во кабина или еквивалент, лесно можете да уловите човечки возач кој се чини дека прикриено оди непотребно долги правци.

Излегува дека имате уште една грижа за изборот на рутата, нешто што навистина ве гризе.

Да претпоставиме дека рутата е направена за да се избегнат одредени делови од градот поради расните аспекти. Постојат документирани случаи на човечки возачи кои биле фатени како прават такви избори, видете ја мојата дискусија во врската овде. Можеби вештачката интелигенција е програмирана негативно за тоа.

Одлучуваш да кренеш црвено знаме.

Заради дискусија, да претпоставиме дека е донесен Закон за вештачка интелигенција со црвено знаме што ја покрива вашата јурисдикција. Тоа може да биде локален закон, државен закон, федерално или меѓународно право. За анализата што ја напишав заедно со Иницијативата за политика за автономни возила на Харвард (AVPI) за зголемената важност на локалното лидерство кога заедниците ја прифаќаат употребата на самоуправувачки автомобили, види врската овде.

Значи, одите на интернет до базата на податоци за вештачка интелигенција на Red Flag. Во базата на податоци за инциденти, ги внесувате информациите за патувањето со автомобил со самоуправување. Ова ги вклучува датумот и времето на возењето, заедно со марката и моделот на самоуправувачкиот автомобил. Потоа влегувате во навигациската рута што изгледаше како сомнителна, и сугерирате или можеби целосно тврдите дека вештачката интелигенција е измислена со пристрасни или дискриминаторски намери и капацитети.

Ќе треба да шпекулираме за другите детали од Законот за вештачка интелигенција за црвено знаме за тоа што ќе се случи следно во ова конкретно сценарио. Теоретски би имало одредба некој да го прегледа црвеното знаме. Тие веројатно ќе се обидат да го натераат производителот на автомобили или технолошката фирма за самоуправување да ја објаснат нивната гледна точка за регистрираното црвено знаме. Колку други такви црвени знамиња се регистрирани? Какви резултати дадоа тие црвени знамиња?

И така натаму ќе одеше.

Заклучок

Глупост, поттикнуваат некои скептици.

Не ни требаат закони за вештачка интелигенција за црвено знаме, тие строго се трудат. Правењето нешто од ваков вид ќе ги загрози работите кога станува збор за темпото и напредокот на вештачката интелигенција. Секој таков закон би бил непоколеблив. Ќе создадете проблем што не решава проблем. Постојат и други начини за справување со вештачката интелигенција кои се лоши. Не фаќајте слепо за сламки за да се справите со пристрасната вештачка интелигенција.

Префрлајќи ги брзините, сите знаеме дека тореадите користат црвени наметки за очигледно да го привлечат вниманието на лутиот бик. Иако црвената боја е бојата што најмногу ја поврзуваме со оваа практика, можеби ќе бидете изненадени кога ќе дознаете дека научниците велат дека биковите не ја перципираат црвената боја на мулетата (тие се слепи за црвена боја). Популарното шоу MythBusters направи доста забавно испитување на оваа работа. Движењето на наметка е клучниот елемент наместо избраната боја.

За оние кои ја отфрлија потребата од законите за вештачка интелигенција со црвено знаме, противтужбата е дека ни треба нешто од драматична и непогрешлива природа на мавтање за да се увериме дека развивачите на вештачка интелигенција и фирмите што користат вештачка интелигенција ќе се оддалечат од пристрасна или лоша вештачка интелигенција. Ако не за црвено знаме, можеби развиорената наметка или во основа каков било вид алармантен пристап може да биде во доменот на добивање соодветно внимание.

Сигурно знаеме дека постои лоша вештачка интелигенција и дека многу повеќе лоша вештачка интелигенција ќе се движат во наша насока. Изнаоѓањето начини да се заштитиме од неповолната вештачка интелигенција е од клучно значење. Исто така, поставувањето заштитни огради за да се спречи лошата вештачка интелигенција да влезе во светот е подеднакво важно.

Ернест Хемингвеј славно изјавил дека никој никогаш не го живее својот живот до крај, освен тореаџиите. Треба да се погрижиме луѓето да можат да го живеат својот живот до крај, и покрај тоа што ни се објавуваат зло или лудило на вештачката интелигенција.

Извор: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- пристрасни-алгоритми-во-автономни-аи-системи/