Етика на вештачката интелигенција се бори со неизбежните несреќи со вештачка интелигенција, кои се наѕираат и над автономните самоуправувачки автомобили

Дали можеби познавате некој што се чини дека е особено склон кон несреќи?

Се чини дека сите ние го правиме тоа.

Можеби личноста е тој тип што може да се лизне на кора од банана или да преврти скапоцена вазна во вашата дневна соба. Тие се човечки магнет за несреќи од еден или друг вид. Тоа може да биде толку лошо што понекогаш дури и не ви се допаѓа да бидете во нивна близина. Може да добиете застрашувачки прелевање или да претрпите неславни последици од една од нивните непријатни несреќи.

Но, можеби сме премногу груби кога сугерираме дека некој е повеќе предиспониран за несреќи отколку другите. Може да се даде аргумент дека на секој од нас може да му се случат несреќи. Сите ние сме предмет на можност да направиме или да се вмешаме во несреќа. Вклучено е најдоброто од нас.

Ајде да натрупаме на оваа дискусија дополнително вознемирувачко прашање.

Дали несреќите се неизбежни?

Со други зборови, колку и да се трудиме да спречиме несреќи, нераскинливо би можело да биде дека сепак постои шанса и крајна сигурност дека ќе се случат несреќи. Можете да барате да го заштитите светот од несреќи. Тоа изгледа несомнено разумно. Но, вака или онака, несреќите сепак ќе ја кренат својата грда глава.

Како што велат, чекаат да се случат несреќи.

Може да биде корисно да се разјасни што се подразбира со упатување на некој настан како соодветно означен како несреќа. Вообичаената дефиниција на речникот е дека несреќата е вид на инцидент што се случува неочекувано и ненамерно, за кој има несреќен резултат кој се состои од привидна штета или повреда.

Внимателно отпакувајте ја таа дефиниција.

Споменатиот инцидент е неочекуван. Тоа значи дека не сме свесни дека ќе дојде до самата несреќа.

Наведениот инцидент е ненамерен. Ова сугерира дека треба да ги исклучиме околностите во кои некој намерно се обидел да се случи инцидентот. Ако некој шегаџија стави кора од банана на подот каде што знае дека ќе зачекори несреќен и несомнен невин, тешко ќе ви биде да тврдите дека лицето што ја сопнало доживеало несреќа. Наместо тоа, тие беа измамени и подмолно одведени во стапица.

Дефиницијата го вклучува и критериумот дека резултатот е несреќен. Несреќа во оваа светлина мора да доведе до кисел исход. Лицето кое случајно преврти вазна пукнало и веројатно го оштетило вкусниот предмет што не може да се поправи. Сопственикот на вазна е оштетен од губење на вредноста. Лицето што налетало на вазна може сега да му ја должи загубата на сопственикот. Не дај небо некој да се исече или да се растури со кршењето на вазната.

Заради еднаква рамнотежа, можеби ќе сакаме да забележиме дека има и таканаречени „добри“ несреќи. Едно лице може да се најде во големо богатство или да придобие некоја друга витална корист поради резултат на несреќа. Еден од најчесто цитираните примери се состои од Сер Александар Флеминг и неговото признаено откритие на пеницилин. Приказната вели дека тој бил малку невнимателен во својата лабораторија и по враќањето од двонеделен одмор нашол мувла на една од неговите културни чинии. Наводно, тој за оваа работа рекол: „Човек понекогаш го наоѓа она што не го бара. Кога се разбудив веднаш по зори на 28 септември 1928 година, сигурно не планирав да ја револуционизирам целата медицина со откривање на првиот антибиотик или убиец на бактерии во светот. Но, претпоставувам дека тоа беше токму она што го направив“.

Ќе ги оставиме настрана поволните несреќи и овде ќе се фокусираме на страшните несреќи. Верзијата на намуртено лице на несреќи е местото каде што тие негативни исходи можат да бидат особено опасни по живот или да имаат тешки резултати. Колку што е можно, негативните несреќи што сакаме да ги минимизираме (и, се разбира, несреќите што би сакале да ги максимизираме, доколку тоа е изводливо, иако ќе ја опфатам таа варијанта со насмевки во подоцнежна колумна).

Би сакал малку да го преформулирам претходното прашање за неизбежноста на несреќите. Досега го задржавме нашето внимание на несреќите што се случуваат во одреден пример на едно лице. Нема сомнение дека несреќите исто така можат да влијаат на мноштво луѓе одеднаш. Ова особено може да се сретне кога луѓето се нурнати во сложен систем од еден или друг вид.

Подгответе се за варијанта на претходно поставеното прашање.

Дали системските несреќи се неизбежни?

Треба да размислиме за ова.

Да претпоставиме дека е поставен фабрички под за да се направат делови за автомобили. Оние што ја дизајнираа фабриката се да речеме крајно загрижени за работничките несреќи што може да се случат. Работниците во фабриките се обврзани постојано да носат шлемови. Знаците во фабриката поттикнуваат да внимавате на несреќи и да бидете внимателни во работата. Се преземаат сите мерки на претпазливост за да се избегнат несреќи.

Во овој систем, може да се надеваме дека никој никогаш нема да доживее несреќа. Дали верувате дека има нула шанса да се случи несреќа? Би се осмелил да сугерирам дека ниту еден разумен мислител не би се обложил дека шансата за несреќа е нула во овој случај. Шансите може да се навистина мали да се случи несреќа, но сепак знаеме и претпоставуваме дека и покрај сите мерки на претпазливост сè уште постои мал ризик да се случи несреќа.

Сето ова упатува на идејата дека во систем со доволно сложеност ние сме обврзани да веруваме дека несреќите сепак ќе се случат, без разлика колку напорно се трудиме да ги спречиме. Ние неволно се потпираме на одредбата дека системските несреќи се навистина неизбежни. Грандиозна изјава од овој калибар може да има предупредување дека системот треба да биде со одреден праг на сложеност, така што во суштина е невозможно да се покријат сите основи за целосно да се спречат несреќи.

Сега сте уредно, чекор-по-чекор запознаени со широко наведената теорија за несреќи што може да се означат како Нормални несреќи или Теорија за нормални несреќи (NAT). Еве еден практичен опис на истражувачите кои го испитувале овој поим: „Во доволно голем обем, секој систем ќе произведе „нормални несреќи“. Ова се неизбежни несреќи предизвикани од комбинација на сложеност, спојување помеѓу компонентите и потенцијална штета. Нормалната несреќа е различна од почестите несреќи со дефект на компонентите со тоа што настаните и интеракциите што водат до нормална несреќа не се разбирливи за операторите на системот“ (како што е наведено во „Разбирање и избегнување дефекти на вештачката интелигенција: Практичен водич“ од Роберт Вилијамс и Роман Јамполски, Филозофии весник).

Причината што ве доведов во земјата на т.н нормални несреќи е дека можеби ќе треба внимателно да ја примениме оваа теорија на нешто што постепено и неизбежно станува сеприсутно во нашето општество, имено доаѓањето на вештачката интелигенција (ВИ).

Ајде да копаме во ова.

Некои луѓе лажно претпоставуваат дека вештачката интелигенција ќе биде совршенство. Системите за вештачка интелигенција нема да грешат и нема да не доведат во неволја, велат шпекулациите. Сè што треба да направите е да бидете сигурни дека тие развивачи на вештачка интелигенција ќе завршат доволно добра работа, а вештачката интелигенција никогаш нема да направи нешто што може да се толкува како случајно или да предизвика несреќа.

Не толку брзо на тоа хипотетичко верување. Ако сте подготвени да ја купите теоријата на нормални несреќи, секоја вештачка интелигенција од која било суштинска сложеност неизбежно ќе доведе до несреќа. Без оглед на тоа колку доцните ноќни манипулации прават тие развивачи на вештачка интелигенција за да спречат несреќа, вештачката интелигенција сигурно во одреден момент во времето ќе биде вмешана во несреќа. Така колачето се распаѓа. И нема одмор со плачење во нашето истурено млеко за тоа.

Размислете за составот на вештачката интелигенција и концептуалните начела на нормални несреќи.

Замислете дека имаме систем на вештачка интелигенција што контролира нуклеарно оружје. Вештачката интелигенција е внимателно изработена. Секоја можна проверка и рамнотежа е кодирана во системот за вештачка интелигенција. Дали сме безбедни од несреќа заснована на вештачка интелигенција што може да се случи? Оние кои го поддржуваат гледиштето за нормални несреќи би рекле дека не сме толку безбедни како што може да се претпостави. Со оглед на тоа што вештачката интелигенција веројатно ќе биде особено сложена, таму тивко чека нормална несреќа да се појави еден ден, можеби во најлошиот можен момент.

Суштината на тие трнливи прашања и несогласувања е дека мораме да бидеме на нашите прсти дека вештачката интелигенција е обврзана да биде оптоварена со несреќи, а човештвото треба да направи нешто разумно и проактивно за опасностите што може да настанат. Како што ќе видите за момент или два, ова е најава за размислување кога станува збор за користење на вештачка интелигенција, а полето на етика и етичка вештачка интелигенција доста се бори за тоа што да прави. За моето тековно и опширно покривање на етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Пред да се спуштиме низ дупка за зајаци, ајде да се увериме дека сме на истата страница за природата на вештачката интелигенција. Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителен ВИ, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да размислите дека чувствителната вештачка интелигенција е когнитивен еквивалент на човек кој ви дава совет. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде). Сите кажано овие сценарија ќе ја засилат проценката на изворот.

Ајде да ги задржиме работите поприземни и да ја разгледаме денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција направи широка употреба на машинско учење (ML) и длабоко учење (DL), што го користи совпаѓањето на пресметковните шаблони. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во неетичката бездна (видете ја мојата анализа за таквите способности на врската овде).

Сè на сè, општа надеж е дека со воспоставување на чувство за етичките прописи за вештачка интелигенција, барем ќе можеме да ја зголемиме општествената свест за она што вештачката интелигенција може и корисно да го направи и што може негативно да произведе. Опширно разговарав за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички принципи на вештачката интелигенција во трудот насловен „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто сосема опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е генерално да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата во кодирањето со вештачка интелигенција што треба да биде вистинската гума што одговара на патот.

Принципите за етика на вештачката интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичката вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Како што беше претходно наведено, потребно е едно село за да се смисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките правила на вештачката интелигенција.

Можеби ќе треба да ги додадеме на фалените списоци за етика на вештачката интелигенција што треба експлицитно да ги разгледаме и да преземеме отворени активности за да спречиме или барем строго да го ублажиме врз основа на вештачка интелигенција нормални несреќи што може да се случи. Оние кои развиваат вештачка интелигенција треба да дадат се од себе на тој план. Оние кои користат вештачка интелигенција треба да го направат истото. Оние кои користат или се некако подложни на вештачка интелигенција треба да бидат претпазливи и внимателни за можноста од несреќи со вештачка интелигенција што навидум ќе се појават.

Можеби ќе бидете во искушение да мислите дека може да се вградат доволно мерки на претпазливост во вештачката интелигенција, така што шансите за несреќа да се намалат на нула. За оние кои се техничари, вообичаеното хибриз е дека ако некое парче технологија може да генерира проблем, друго парче технологија сигурно може да го реши проблемот. Само продолжете да фрлате се повеќе и повеќе технологија додека проблемот не исчезне.

Па, оние кои ги проучувале несреќите ориентирани кон системите би имале тенденција да не се согласуваат и учтиво да возвратат на претпоставената технолошка помпоситет со тоа што ќе предложат став познат како швајцарски модел на сирење (SCM): „Во SCM, безбедносните слоеви се моделирани како парчиња од сирење со дупки во нив што претставуваат слаби точки во секој слој на безбедност. Со текот на времето, дупките ја менуваат формата и се движат наоколу. На крајот, без разлика колку парчиња сирење (слоеви за безбедност) има, дупките ќе се порамнат што ќе овозможат директно пукање низ сите парчиња сирење (се случува несреќа)“ (според претходно цитираниот труд од Роберт Вилијамс и Роман Јамполски ).

Не сакам да се заглавувам во оваа странична тангента за тоа дали постои или не загарантиран начин да се програмира вештачката интелигенција за целосно и секогаш да се избегне каква било шанса за несреќа. Постојат сите начини на математичко и пресметковно докажување пристапи што се испробуваат. Мислам дека е разумно и фер да се изјасниме дека ние денес немаме скалабилен метод на работа, ниту технологии кои можат да гарантираат таква нула шанса, плус дефинитивно сме оптоварени со тони по тони вештачка интелигенција што се произведува со мелем. знае сигурно не се обиде да се придржува до таквите практики. Таа последна точка е од клучно значење бидејќи дури и ако можеме да смислиме нешто во лабораторија за вештачка интелигенција, зголемувањето на тоа на илјадници диви и безгрижни напори за вештачка интелигенција што се во тек и кои ќе продолжат да се појавуваат, е проблем кој не е решен дури и ако компјутерската машина за докажување е сребро куршум постоел.

Друг момент за кој верувам дека заслужува кратко спомнување се состои од вештачка интелигенција која е претворена во правење непријатни дејствија како резултат на злонамерни човечки актери. Нема да ги ставам тие примери во доменот на несреќи со вештачка интелигенција. Запомнете дека воведната дискусија сугерираше дека дефиницијата за несреќа во речникот е инцидент на ан ненамерно природата. Ако човечки сајбер измамник успее да го натера системот за вештачка интелигенција да прави лоши работи, јас не ја класифицирам таа вештачка интелигенција како доживеана несреќа. Верувам дека ќе продолжите со таа претпоставка.

Се поставува интересно прашање за тоа колку од различните несакани дејства со вештачка интелигенција може да се припишат на чисто несреќа со вештачка интелигенција наспроти лукав чин на сајбер криминалец. Според некои од постоечките бази на податоци за известување за инциденти со вештачка интелигенција, се чини дека несреќите со вештачка интелигенција се случуваат повеќе отколку злонамерно поттикнати инциденти, иако тој поим треба да го сфатите со голема доза сол. Ова го велам затоа што постои големо искушение да не се пријави кога бил нападнат систем со вештачка интелигенција, а можеби и да се биде нешто повеќе подготвен да пријави кога ќе се случи несреќа со вештачка интелигенција.

Постои исклучително важно предупредување за кое треба да разговараме во врска со несреќите со вештачка интелигенција.

Користењето на фразата „Несреќи со вештачка интелигенција“ е генерално непожелно и ќе создаде прилично хаос за сите нас, што значи за целото општество. Кога човек веројатно ќе доживее несреќа, ние често ги креваме рамениците и сме сочувствителни кон личноста што ја доживеала несреќата. Се чини дека зборот „несреќа“ го третираме како да значи дека никој не е одговорен за она што се случило.

Да го земеме примерот на влегување во сообраќајна несреќа. Еден автомобил замавнува широко на десен свиок и случајно се заби во друг автомобил што одел право напред. Шок, тоа беше само несреќа и случајно се случи. Оние кои не биле вклучени во инцидентот можеби ќе ја остават работата да падне ако настанот е објаснет во смисла дека е само несреќа што се случила.

Сепак, имам чувство дека ако бевте во автомобилот што го удри, немаше да бидете толку сочувствителни кон возачот што направи премногу широк свиок. Вашето мислење сигурно би било дека другиот возач бил вошлив возач и дека или навидум незаконско или немудро возење довело до сообраќајна несреќа. Со етикетирање на инцидентот како „несреќен случај“, возачот што бил заглавен сега е во некоја неповолна положба бидејќи изгледа сето тоа се случило само случајно, а не преку рацете на возачот што збркал.

Всушност, зборот „несреќа“ е толку исполнет со различни конотации што во голема мера, владините статистики за сообраќајни несреќи го означуваат ова прашање како судири на автомобили или сообраќајни несреќи, наместо да ја користат фразата сообраќајни несреќи. Судир со автомобил или сообраќајна несреќа се чини дека нема никакви импликации за тоа како дошло до инцидентот. Во меѓувреме, фразата за „сообраќајна несреќа“ речиси нè наведува да мислиме дека се работи за чудење на судбината или некако надвор од рацете на човештвото.

Може изобилно да видите како се појавува оваа конотација кога се однесува на несреќи со вештачка интелигенција. Не сакаме развивачите на вештачка интелигенција да се кријат зад конотацискиот штит дека вештачката интелигенција случајно предизвикала некому штета. Истото важи и за оние кои користат вештачка интелигенција. Може да тврдите дека фразата за „несреќи со вештачка интелигенција“ е речиси антропоморфизирање на вештачката интелигенција што ќе го доведе општеството во заблуда да им дозволи на луѓето што беа зад сцената на вештачката интелигенција да избегаат од одговорност. За мојата дискусија за зголемената важност да се сметаат луѓето одговорни за нивната вештачка интелигенција, видете ја мојата дискусија во оваа врска тука оваа врска тука.

Отсега натаму ќе ја користам фразата за несреќи со вештачка интелигенција, но тоа го правам неволно и само затоа што тоа е конвенционален начин на упатување на овој феномен. Обидите да се каже ова поинаку имаат тенденција да бидат за жал понадуени и не толку лесно читливи. Ве молиме, погрижете се да ја протолкувате фразата на начин што нема да ве натера да гледате на друга страна и да не сфатите дека луѓето што стојат во основата на вештачката интелигенција се виновни кога вештачката интелигенција тргне наопаку.

За да помогнеме да ја илустрираме веројатната конфузија или погрешните аспекти на упатувањето на вештачката интелигенција како несреќи, можеме да се вратиме на моите забелешки за тропање вазна. Размислете за овој пример како вештачката интелигенција го прави тоа: „Овој проблем е поврзан со работите што се направени случајно или рамнодушност од страна на вештачката интелигенција. Роботот за чистење што тропа вазна е еден пример за ова. Сложените средини имаат толку многу видови „вазни“ што веројатно нема да можеме да програмираме казна за сите несакани ефекти“ (според трудот на Роберт Вилијамс и Роман Јамполски).

Системот за вештачка интелигенција што се става во употреба во домаќинството, а потоа „случајно“ ја удира вазната, се чини дека сугерира дека никој не треба да се обвинува за оваа негативна акција на вештачката интелигенција. Тоа беше само несреќа, со жалење може да се осуди. Од друга страна, со право треба да се запрашаме зошто системот за вештачка интелигенција не е програмиран да се справи со околноста на вазната воопшто. Дури и ако развивачите на вештачка интелигенција не очекуваа дека вазната сама по себе е во опсегот на предметите што може да се сретнат, секако можеме да се запрашаме зошто не постоеше некое сеопфатно избегнување на објекти што би го спречило системот за вештачка интелигенција да тропа над вазна (така, вештачката интелигенција не мора да ја класифицира вазната како вазна, но сепак можела да ја избегне како предмет што може да се открие што треба да се избегнува).

Сум предвидувал и продолжувам да предвидувам дека постепено се движиме кон огромна правна битка околу појавата на системи за вештачка интелигенција кои самите се запаѓаат во „несреќи со вештачка интелигенција“ и предизвикуваат некаква форма на штета. Досега, општеството не реагираше на никаков значителен начин на легално притискање на вештачката интелигенција што се фрла на пазарот и предизвикува негативни последици, било со намера или ненамерно. Денешната банда со вештачка интелигенција која стана златна треска на полупечени производители на вештачка интелигенција и оние кои набрзина го воведоа распоредувањето на вештачката интелигенција, сега имаат среќа и остануваат релативно недопрени од граѓански тужби и кривични гонења.

Правната реакција поттикната од вештачката интелигенција доаѓа, порано или подоцна.

Продолжувајќи понатаму, како да се обидеме да се справиме со неизбежноста на таканаречените несреќи со вештачка интелигенција?

Едно нешто што можеме да го направиме веднаш е да се обидеме да предвидиме како може да се случат несреќи со вештачка интелигенција. Со предвидување на несреќите со вештачка интелигенција, можеме барем да бараме да смислиме средства за нивно намалување или минимизирање на нивната веројатност да се случат. Понатаму, можеме да се обидеме да поставиме заштитни огради, така што кога навистина ќе се случи несреќа со вештачка интелигенција, шансите за демонстративна штета да се намалат.

Корисен сет на фактори кои беа опишани во претходно цитираниот напис за истражување Разбирање и избегнување на ВИ неуспеси: Практичен водич ги вклучува овие својства (како што е цитирано од истражувачкиот труд):

  • Системот кој е под влијание на излезите на вештачката интелигенција.
  • Временско доцнење помеѓу излезите на вештачката интелигенција и поголемиот систем, набљудувањето на системот, нивото на човечко внимание и способноста на операторите да го поправат неправилното функционирање на вештачката интелигенција.
  • Максималната можна штета со злонамерна употреба на системите што ги контролира вештачката интелигенција.
  • Спојување на компонентите во близина на вештачката интелигенција и сложеност на интеракциите.
  • Јазот во знаењето за вештачката интелигенција и другите употребени технологии и нивото на енергија на системот.

Во овој момент на оваа голема дискусија, би се обложил дека сакате некои илустративни примери кои би можеле дополнително да ја разјаснат темата за несреќи со вештачка интелигенција. Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за појавата на таканаречените несреќи со вештачка интелигенција и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските самоуправувачки автомобили се оние каде што вештачката интелигенција го вози автомобилот целосно самостојно и нема никаква човечка помош за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште нема вистински самоуправувачки автомобил на Ниво 5, а сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту колку време ќе биде потребно за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и инциденти со вештачка интелигенција

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Верувам дека обезбедува доволно литија предупредувања за да го поткрепам она за што ќе зборувам.

Сега сме подготвени длабоко да се нурнеме во самоуправувачките автомобили и можностите за етичка вештачка интелигенција, што подразбира појава на таканаречени несреќи со вештачка интелигенција.

Замислете дека самоуправувачки автомобил базиран на вештачка интелигенција е во тек на улиците во вашето соседство и се чини дека вози безбедно. Отпрвин, посветивте посебно внимание на секој пат кога ќе успеете да ѕирнете на самоуправувачкиот автомобил. Автономното возило се издвојуваше со решетка од електронски сензори кои вклучуваат видео камери, радарски единици, уреди LIDAR и слично. По многу недели од самоуправувачкиот автомобил кој крстареше низ вашата заедница, сега едвај го забележувате тоа. Што се однесува до вас, тоа е само уште еден автомобил на веќе зафатените јавни патишта.

За да не мислите дека е невозможно или неверојатно да се запознаете со гледањето на самоуправувачки автомобили, честопати пишував за тоа како местата што се во опсегот на тестирања со самоуправувачки автомобили постепено се навикнаа да ги гледаат зашеметените возила. Многумина од локалното население на крајот се префрлија од занесно гајлење што ја отвора устата до сега испуштајќи експанзивен зевање на здодевност за да бидат сведоци на оние што се вртат самоуправувачки автомобили.

Веројатно главната причина што во моментов може да ги забележат автономните возила е поради факторот на иритација и вознемиреност. Системите за возење со вештачка интелигенција кои се користат во книгата се сигурни дека автомобилите ги почитуваат сите ограничувања на брзината и правилата на патот. За бурните човечки возачи во нивните традиционални автомобили управувани од луѓе, се нервирате во моменти кога ќе се заглавите зад самоуправувачките автомобили што строго ги почитуваат законите базирани на вештачка интелигенција.

Тоа е нешто на кое можеби ќе треба сите да се навикнеме, со право или погрешно.

Назад на нашата приказна.

Еден ден, самоуправувачкиот автомобил наидува на сообраќајна несреќа.

При вртењето надесно, системот за возење со вештачка интелигенција широко замавна со автономното возило и беше удрен автомобил управуван од луѓе. Автомобилот управуван од луѓе се движел право напред по соодветната сообраќајна лента. Немаше посебна можност човечкиот возач да скршне или да избегне удар. Покрај тоа, немаше никакво предупредување или индикација од страна на самоуправувачкиот автомобил дека нашироко ќе направи десно вртење.

Дали е ова несреќен случај?

Сигурно можеме да кажеме дека тоа е опфатено во рубриката дека е несреќа со вештачка интелигенција. Основата за таквото тврдење е дека на воланот на самоуправувачкиот автомобил постоел систем за возење со вештачка интелигенција. Некако, од кои било причини, вештачката интелигенција одлучи да направи широк замав при вртење десно. Резултатот доведе до тоа самоуправувачкиот автомобил да удри во автомобил управуван од луѓе.

Потсетете се на претходната дискусија за конотациите поврзани со зборот „несреќа“ и видете како таквите подтонови се појавуваат во ова сценарио. Исто така, запомнете дека разговаравме за случајот на човек возач кој направи широко вртење надесно и налета на автомобил управуван од човек. Сфативме дека поимот овој чин е „несреќен случај“ е погрешен и збунувачки. Човечкиот возач што го направи широкиот замав можеше да се скрие зад идејата дека само се случила несреќа која навидум била случајна или каприците на судбината.

Наместо да го означиме сценариото како „несреќа со вештачка интелигенција“ во случај автомобилот со самоуправување базиран на вештачка интелигенција да отиде широко и да удри во автомобил управуван од човек, можеби треба да кажеме дека се работи за сообраќајна несреќа или автомобилски судир што вклучува само- возење автомобил и автомобил управуван од луѓе. Потоа можеме да се откажеме од празната конфузија дека тоа е несреќа од непознати средства.

Што мислите, каква би била реакцијата на јавноста за инцидентот?

Па, ако производителот на автомобили или технолошката фирма за самоуправување може да се придржува до етикетирањето на предметот како несреќа, тие би можеле да ги прескокнат потенцијалните реакции од заедницата во целина. Чувството на сочувство за несреќите што се кажани веројатно ќе се прелее на одредена околност. За повеќе за тоа како градовите, окрузите и државните водачи потенцијално ќе реагираат на инциденти со автономни возила со вештачка интелигенција, видете ја дискусијата за студијата на Харвард што јас ја водев и како што е опишано на врската овде.

Ако ситуацијата е јасно опишана како сообраќајна несреќа или судир со автомобил, можеби тоа би можело да овозможи да се сфати дека некој или нешто можеби е виновен за инцидентот. Реакцијата на колена може да биде дека вештачката интелигенција треба да биде одговорна. Работата е во тоа, додека или ако некогаш одлучиме да ја помазаме вештачката интелигенција како правна личност, нема да можете да ја закачите одговорноста на самата вештачка интелигенција (видете ја мојата дискусија за вештачката интелигенција и правното лице на врската овде).

Можеме да го провериме системот за возење со вештачка интелигенција за да се обидеме да откриеме што доведе до навидум несоодветно возење и последователна сообраќајна несреќа. Тоа сепак не значи дека вештачката интелигенција ќе биде повикана на одговорност. Одговорните страни ги вклучуваат развивачите на вештачка интелигенција, операторот на возниот парк на самоуправувачки автомобил и други. Вклучувам и други бидејќи постои можност градот да биде делумно одговорен за дизајнот на аголот каде што се вртело. Дополнително, да претпоставиме дека пешакот бега од свиокот и системот за возење со вештачка интелигенција одлучи да го избегне лицето, а сепак потоа се заплетка во сообраќајна несреќа.

И така натаму.

Заклучок

Би сакале да знаеме што пресметувала вештачката интелигенција и што била програмирана да прави. Дали вештачката интелигенција направи како што беше кодирана? Можеби вештачката интелигенција наишла на грешка или грешка во програмирањето, што не ги оправдува дејствата, но дава повеќе поим за тоа како дошло до падот.

Какви заштитни огради за вештачка интелигенција беа програмирани во системот за возење со вештачка интелигенција? Ако имаше заштитни огради, би сакале да откриеме зошто се чинеше дека не ја спречија сообраќајната несреќа. Можеби системот за возење со вештачка интелигенција можеше да застане наместо да направи кривина. Би сакале да знаеме кои алтернативи вештачката интелигенција пресметувала за време на инцидентот.

Освен да се дојде до дното на конкретниот инцидент, уште една вистинска несогласување е дали системот за возење со вештачка интелигенција има дефект или друг вграден аспект што ќе направи слични видови на негативни дејства. Во суштина, овој инцидент може да биде показател за повеќе што ќе дојдат. Како се користеа компјутерски симулации на ситуации на возење за да се обидат и предвидат овој тип на систем за возење со вештачка интелигенција? Дали имало доволно тестови за возење на патиштата за да се откријат проблемите со вештачката интелигенција што би можеле да доведат до сообраќајна несреќа?

Ова сценарио ја нагласува спорната загатка што се соочува со појавата на самоуправувачки автомобили базирани на вештачка интелигенција.

Тоа оди вака.

Од една страна, постои општествена желба брзо да се усвојат самоуправувачки автомобили поради надежта дека системите за возење со вештачка интелигенција ќе бидат подеднакво безбедни или можеби побезбедни од човечките возачи. Само во Соединетите Американски Држави, моментално имаме речиси 40,000 човечки жртви годишно поради сообраќајни несреќи и околу 2.5 милиони човечки повреди. Анализите сугерираат дека значителен дел од тие сообраќајни несреќи се припишуваат на човечка грешка, како што се возење во алкохолизирана состојба, возење додека е расеан итн. (видете ја мојата проценка за таквата статистика на врската овде).

Системите за возење со вештачка интелигенција нема да пијат и да возат. Нема да им треба одмор и нема да се истрошат додека се волан. Претпоставката е дека со воспоставување на самоуправувачки автомобили како остварлив начин на транспорт, можеме да го намалиме бројот на човечки возачи. Ова за возврат треба да значи дека накратко ќе го намалиме бројот на годишни човечки жртви и повреди од сообраќајни несреќи.

Некои експерти рекоа дека ќе завршиме со нула жртви и нула повреди, а тие самоуправувачки автомобили наводно нема да се урнат, но ова е целосно апсурден и крајно лажен збир на очекувања. Објаснив зошто ова е толку неискрено врската овде.

Во секој случај, да претпоставиме дека ќе имаме одреден број на сообраќајни несреќи во кои учествуваат самоуправувачките автомобили. Прашањето за кое се мачи е дали ние како општество сме подготвени воопшто да толерираме такви случаи. Некои велат дека ако дури и една смрт или една повреда се случи како резултат на вистински самоуправувачки автомобили, целиот комплет и кабудл треба да се затворат.

Спротивното гледиште е дека ако спасените животи ги намалуваат годишните пребројувања, треба да продолжиме да го поттикнуваме појавувањето на самоуправувачки автомобили и да не реагираме на таков нелогичен начин. Ќе треба да ја прифатиме премисата дека одреден број на жртви и повреди сè уште ќе постојат, дури и кај самоуправувачките автомобили, а сепак да сфатиме дека годишниот број доколку се намали сугерира дека сме на вистинскиот пат.

Се разбира, некои тврдат дека не треба да имаме самоуправувачки автомобили на нашите јавни патишта додека не се ослободат за таква употреба како резултат на обемни и исцрпни компјутерски симулации или како преку приватно тестирање на затворена патека. Контрааргументот е дека единствениот остварлив и најбрз начин да се повлечат автомобилите со самоуправување е користењето на јавните патишта и дека секое доцнење во усвојувањето на самоуправувачки автомобили инаку ќе овозможат ужасните брои за судири на автомобили со луѓе да продолжат. Ја опфатив подетално оваа дебата во моите колумни и ги поттикнувам читателите да ги разгледаат тие дискусии за да ја добијат целосната смисла на перспективите за оваа контроверзна работа.

Ајде да ги завршиме работите засега.

Ќе се случат несреќи со вештачка интелигенција. Мораме да се спротивставиме на импулсот да ја сфатиме несреќата со вештачка интелигенција како навидум случајно и ерго лажно нека креаторите и оние што ја распоредуваат вештачката интелигенција категорично не се закануваат.

Има дополнителен пресврт што ви го оставам како последна интригантна мисла за вашиот ден.

Комичарот Дејн Кук наводно ја кажал оваа шега за сообраќајните несреќи: „Пред неколку дена доживеав сообраќајна несреќа. Не е моја вина. Дури и да не си ти крив, другиот излегува од колата и те гледа како да си виновна: Зошто застана на црвено и ми дозволи да те удрам 80!“

Онаму каде што извртувањето доаѓа до израз е можноста системот за вештачка интелигенција да одлучи да инсистира дека кога ќе се случи несреќа со вештачка интелигенција во која е вклучена таа конкретна вештачка интелигенција, вештачката интелигенција тврди дека инцидентот бил вина на човекот и сигурно не е вина на вештачката интелигенција. Патем, ова би можело да биде многу точно и човекот можеби се обидува да ја жртвува вештачката интелигенција тврдејќи дека тоа е вина на вештачката интелигенција.

Или можеби вештачката интелигенција се обидува да го жртвува човекот.

Гледате, вештачката интелигенција што ја смисливме може да биде незгодна на тој начин, или случајно или не.

Извор: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- возење-автомобили-исто/