Етика на вештачката интелигенција размислува за основаноста на законски задолжителни средства за помирување за да се обезбеди одговорност за лошо постапување со вештачка интелигенција

Кој е виновен?

Тоа може да изгледа како едноставно прашање, иако во случајот со познатата комедија од легендарното дуо Абот и Костело за бејзбол тим, „кој“ може да биде збунувачки. Можеби нејасно сте запознаени со Кој е прв комична рутина што ја направија во еден од најиздржливите скици на сите времиња (предупредување за спојлер за оние од вас што не сте го слушнале).

Абот му кажува на Костело дека Кој е на прво, Што е на второ и Не знам е на трето. Паметната измама е во тоа што првиот подрум се вика Кој, вториот подрум се вика Што, а третиот подрум се вика Не знам. Се разбира, тие фрази имаат и свое конвенционално значење и на тој начин обидот да се протолкува она што го кажува Абот може да биде целосно збунувачки. Навистина, Костело го поставува навидум безопасното прашање за тоа кој е прв, за што одговорот е цврсто кажано да. Но, ова нема смисла за Костело бидејќи тој очекуваше име и наместо тоа доби збунувачки да како одговор.

Менувањето на брзините, кога станува збор за појавата на вештачката интелигенција (ВИ), едно од највозбудливите прашања што постојано се поставуваат подразбира кој или можеби што ќе биде повикан на одговорност кога вештачката интелигенција ќе залута.

Претходно разговарав за кривичната одговорност за тоа кога вештачката интелигенција води до или презема криминални дејствија, видете ја мојата покриеност на врската овде. Исто така, постои прашање на граѓанска одговорност, како на пример кој или што би можеле да тужите кога вештачката интелигенција ви згрешила, што е темата за која ќе разговарам овде. Сето ова има значајни размислувања за етика на вештачката интелигенција. За моето тековно и опширно покривање на етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Заповедите на етиката на вештачката интелигенција нè тераат да останеме будни. Технолозите со вештачка интелигенција понекогаш можат да бидат преокупирани со технологијата, особено со оптимизацијата на високата технологија. Тие не мора да ги земаат предвид поголемите општествени последици. Да се ​​има начин на размислување за етика на вештачката интелигенција и да се прави тоа интегрално во развојот и спроведувањето на вештачката интелигенција е од витално значење за производство на соодветна вештачка интелигенција, вклучувајќи (можеби изненадувачки или иронично) проценката за тоа како етиката на вештачката интелигенција се прифаќа од фирмите.

Покрај користењето на правилата за етика на вештачката интелигенција општо, постои соодветно прашање дали треба да имаме закони за регулирање на различните употреби на вештачката интелигенција. На федерално, државно и локално ниво се шират нови закони кои се однесуваат на опсегот и природата на тоа како треба да се смисли вештачката интелигенција. Напорот за изготвување и донесување такви закони е постепен. Етиката на вештачката интелигенција во најмала рака служи како запирање и речиси сигурно до одреден степен ќе биде директно инкорпорирана во тие нови закони.

Бидете свесни дека некои категорично тврдат дека не ни требаат нови закони кои покриваат вештачка интелигенција и дека нашите постоечки закони се доволни. Всушност, тие предупредуваат дека ако навистина донесеме некои од овие закони за вештачка интелигенција, ќе ја убиеме златната гуска со тоа што ќе го спречиме напредокот во вештачката интелигенција што нуди огромни општествени предности.

Жестока дебата што се води е дали постоечките закони се способни соодветно да се справат со појавата на системи за вештачка интелигенција низ општеството. Законската одговорност обично бара да можете да ја закачите опашката на магарето за тоа кој е одговорен за штетното однесување. Во случајот со вештачката интелигенција, може да има прилично нејасен пат кој поврзува одредено лице или лица со вештачката интелигенција што извршила некоја повреда. Вештачката интелигенција може во голема мера да не може да се следи за изворот или пронаоѓачот што ја составил вештачката интелигенција.

Друго размислување е дека дури и ако корените на вештачката интелигенција може да се проследат до некого, прашањето е дали лицето или лицата можеби не биле во можност разумно да го предвидат негативниот исход што на крајот го предизвикала вештачката интелигенција. Суштината на предвидливоста е вообичаено забележлив фактор во оценувањето на правната одговорност.

Можеби ќе бидете во искушение да мислите дека можете едноставно да тргнете по самата вештачка интелигенција и да ја именувате вештачката интелигенција како легална страна одговорна или одговорна за каква било штета што наводно е направена. Во голема мера, преовладува правен став дека вештачката интелигенција сè уште не достигнала ниво на правна личност. Така, нема да можете строго кажано да барате да ја натерате вештачката интелигенција да плати и ќе треба да пронајдете луѓе кои работеа на лостовите зад сцената, како што беше (за мојата анализа на правното лице за ВИ, види врската овде).

Во сета оваа потенцијална правна лоша чекори една идеја што се фрла како можен лек, или на краткорочна основа или евентуално на долгорочен план. Идејата е дека можеби треба да се формира специјален компензаторен фонд за да се обезбеди финансиско олеснување за оние што биле оштетени од вештачката интелигенција. Ако инаку не можете да ја натерате вештачката интелигенција да ви обесштети и не можете да ги одредите лицата за кои се претпоставува дека треба да одговараат, следната најдобра опција би можела да биде да искористите компензаторен фонд кој има за цел да им помогне на оние кои се оштетени од вештачката интелигенција.

Таквиот фонд би бил сличен на вид на осигурување, како што е наведено во истражувачки труд што предизвикува размислување: „Ова во суштина би бил механизам за осигурување од несигурност: Јасна и транспарентна рамка за брзо обесштетување во случаи кога тужбата за одговорност има неизвесна или без изгледи за успех поради непредвидливата природа на штетното однесување, самата (тип на) штета или прекумерните трошоци и/или сложеноста на постапката“ (напис од Оливија Ердели и Габор Ердели, „Загатка за одговорност за вештачка интелигенција И работа заснована на средства“, Весник за истражување на вештачка интелигенција, 2021).

Компензаторниот фонд ќе биде дел од сеопфатната шема за гаранција за вештачка интелигенција (AIGS) и ќе биде придружен со некои лесни измени на постоечките закони за правна одговорност. Лесниот допир веројатно би бил полесен за спроведување и нема да бара напорен вид на правна и општествена анксиозност доколку се направат пострашни низа демонстративни промени на постојните правни режими. Според истражувачите: „Ова го одразува нашето верување дека - и покрај привлечноста на таквото решение за брзо поправање - непроменет примена на постоечките правила за одговорност за ВИ или а протекционистички мотивирани прибегнувањето кон строга одговорност со цел да се утврди одговорност по секоја цена не се точни одговори поради три причини: Прво, игнорирајќи дека тие правила се приспособени на различни околности и оттука може да бидат несоодветни за вештачката интелигенција, тие се во спротивност со деликатно избалансираните цели на систем на правна одговорност. Второ, тие ја инхибираат иновативноста на вештачката интелигенција со усвојување на прекумерно казнен пристап. Трето, несоодветното прибегнување кон строга одговорност само ја заобиколува предвидливоста и проблемите со вина на догматски неконзистентен начин, наместо да ги поправа“ (како во трудот цитиран погоре).

Аргументите во корист на таквите компензаторни фондови за вештачка интелигенција вклучуваат:

  • Ја намалува потребата за долги и скапи правни судења за справување со штетите предизвикани од вештачката интелигенција
  • Ги уверува луѓето дека можат да користат вештачка интелигенција и да бидат компензирани доколку им се наштети
  • Промовира иновација со вештачка интелигенција со ублажување на правната несигурност со која се соочуваат иноваторите со вештачка интелигенција
  • Може да се стави во употреба многу побрзо отколку да се прават огромни промени во постоечките закони
  • Нуди релативно јасен лек кој е сигурен и лесно достапен
  • други

Во меѓувреме, оние што се спротивставуваат на пристапот на компензаторни фондови за вештачка интелигенција го велат ова:

  • Дозволете им на креаторите на вештачка интелигенција претерано да се откачат и да им дозволиме да ја намалат одговорноста
  • Ќе ги охрабри креаторите на вештачка интелигенција да изработат вештачка интелигенција која нема совесна безбедност и соодветни контроли
  • Може да ги поттикне луѓето лажно да тврдат дека им штети на вештачката интелигенција за да можат да ги користат средствата
  • Ја заобиколува и ја поткопува вистинската потреба за ревизија на нашите закони за доволно да се управува со вештачката интелигенција
  • Може да стане бирократски кошмар што заглавува и ги злоупотребува средствата
  • други

Како што може да биде очигледно, има и застапници и противници на овој целосно контроверзен поим.

Ќе ви биде тешко да го исклучите накратко компензаторниот фонд за вештачка интелигенција како потенцијален пристап кон зголемената загриженост за вештачката интелигенција што предизвикува штета. Ниту, пак, предложеното решение е слем забивање.

Едно гледиште е дека креаторите на вештачка интелигенција ќе треба да вложат пари во фондовите како дел од нивните напори при осмислувањето и објавувањето на вештачката интелигенција. Ова може да се толкува како вид на такса или данок што тие се обврзани да ги поднесат како дел од можноста да ја пуштат својата вештачка интелигенција во светот. Но, дали оваа дополнителна цена потенцијално ги потиснува напорите на стартапите кои се обидуваат да ги поместат границите на денешната вештачка интелигенција? И како би се постапувало со спроведувањето на осигурување дека креаторите на вештачка интелигенција ја платиле својата такса или данок?

Се појавуваат низа прашања и треба да се решат:

  • Во кои земји е најдобро изводлив компензаторен фонд за вештачка интелигенција?
  • Дали може да се воспостави глобален изглед на меѓусебно поврзани компензаторни средства за вештачка интелигенција?
  • Кои би биле деталните и функционални механизми поврзани со таквите средства?
  • Како треба да се финансираат компензаторните средства за вештачка интелигенција (јавни, приватни, добротворни)?
  • Дали ова би било основа за осигурување без вина или би се применил некој друг пристап?
  • Итн

Царството во кое веќе беше опфатена идејата за компензаторни средства за вештачка интелигенција се состои од автономни системи како што се автономни возила и самоуправувачки автомобили. За моето покривање на самоуправувачките автомобили и автономните системи со вештачка интелигенција, видете врската овде.

Еве скица за тоа како ова може да функционира за самоуправувачките автомобили базирани на вештачка интелигенција.

Да претпоставиме дека самоуправувачки автомобил удрил во велосипедист. Возачот на велосипед е повреден. Возачот на велосипед би можел да побара правна штета со следење на производителот на автономното возило. Или тие би можеле да се насочат кон технолошката фирма за самоуправување што го направи системот за возење со вештачка интелигенција. Ако самоуправувачкиот автомобил се управува како возен парк, друг правен пат би бил да се гони операторот на возниот парк. Обидот за тужба против вештачката интелигенција не е опција во овој момент бидејќи правното лице на вештачката интелигенција сè уште не е утврдено.

Наместо да се преземе правна постапка против која било од тие страни, друг регрес би бил поднесување барање или барање до соодветен компензаторен фонд за вештачка интелигенција. Фондот би ги формализирал процесите кои вклучуваат разгледување на побарувањето, а потоа би одредил што ако може да му се обезбедат компензаторни плаќања на барателот. Може да има процес на жалба што им помага на барателите кои веруваат дека биле или погрешно одбиени од фондот или недоволно компензирани од фондот.

Теоретски, компензаторниот фонд за вештачка интелигенција би бил многу побрз пат кон добивање компензација за нанесената штета. Можете да замислите колку може да биде макотрпна тужбата, при што фирмите што се тужени може да се обидат да го одвлечат случајот.

Адвокатите можеби ќе нагласат дека компензаторниот фонд за вештачка интелигенција би можел да им дозволи на другите страни, како што се креаторите на вештачка интелигенција, навидум да избегнат секаква јасна казна за пуштање на нивниот самоуправувачки автомобил на јавни патишта што на крајот удрил велосипедист. Што друго би можеле тие фирми да одлучат да прават „невнимателно“? Без демне сеништето на правниот меч што виси над нивните глави, би можеле да се најдеме секојдневно со соочување со вештачката интелигенција која е преполна со загрозувачки капацитети.

Заокружете ги аргументите.

Заклучок

Етиката на вештачката интелигенција нè потсетува дека секогаш треба да ги земеме предвид етичките и правните последици на вештачката интелигенција. Во овој случај на компензаторните фондови за вештачка интелигенција, предложениот поим за фонд на средства сличен на осигурување за компензација на оние што се оштетени од вештачката интелигенција изгледа примамливо. Средствата навидум ќе чекаат таму, подготвени да се искористат и да обезбедат што поскоро компензација.

Размените за тоа дали ова може да ги отвори вратите кон создавање вештачка интелигенција која има се помалку безбедносни контроли е застрашувачка и премногу реална загриженост. Веројатно нема потреба да долеваме масло на огнот кој можеби веќе е малку во тек.

Можеме ли некако сè уште да ги држиме креаторите на вештачката интелигенција да осмислат соодветна етичка вештачка интелигенција и истовремено да ги воспостават овие компензаторни фондови за вештачка интелигенција?

Некои би рекле дека да, можеме. Со обновување на постоечките закони за да се усогласат со компензаторните фондови за вештачка интелигенција, оние што се оштетени од вештачката интелигенција потенцијално би имале двоен пат да бараат нивна праведна компензација.

Кој е прв?

Да, тоа е оној кој (како и кај сите нас) е на првото известување дека треба да размислуваме за потенцијалната употреба на компензаторните фондови за вештачка интелигенција и да ги измениме постоечките закони, дури и ако е малку така, обезбедувајќи средства за справување со нападот на добрата вештачка интелигенција и лоша вештачка интелигенција.

Нема забуна околу тоа витално размислување.

Извор: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- одговорност/