Вградувањето правно резонирање во вештачката интелигенција може паметно да постигне усогласување со човечката вредност, вели етика и закон за вештачка интелигенција

Во денешната колумна, ќе сплетам огромен број на навидум различни теми поврзани со вештачката интелигенција во една убаво исткаена ткаенина.

Дали сте подготвени?

Замислете дека користите апликација напојувана со вештачка интелигенција која ви помага додека преземате некаква значајна задача. Можеби работата е финансиска или може да биде поврзана со здравјето. Суштината е дека зависите од вештачката интелигенција за да ја направите вистинската работа и да настапите на претпоставен безбеден и здрав начин.

Да претпоставиме дека вештачката интелигенција скршнува на неетичка територија.

Можеби нема да сфатите дека вештачката интелигенција го прави тоа.

На пример, вештачката интелигенција може да се потпира на потенцијално скриени дискриминаторски фактори како што се расата или полот, иако можеби немате одржливи средства за да ја препознаете непријатната употреба. Ете, вие, сосема сами, го добивате краткиот крај на стапот преку вештачка интелигенција која е или измислена од самиот почеток на проблематичен начин или успеала да се насочи кон тесно и гранично етичко загрозување (ќе кажам повеќе за ова за миг).

Што можете да направите или што може да се направи во врска со вештачката интелигенција која ќе одлучи да тргне по неетички пат?

Покрај обидот претходно да се конструира вештачката интелигенција за да не го прави овој вид подмолна акција, претходно детализирав и дека постои зголемен интерес за вградување на Етичка проверка на вештачката интелигенција компонента во растечкиот молив на инаку Дивиот Запад системи за вештачка интелигенција што се случува и се фрлаат на пазарот. Идејата е дека за да се обидеме да спречиме апликација со ВИ да оди подалеку од етичките димензии, би можеле да користиме дополнителна вештачка интелигенција за да извршиме проверка и рамнотежа. Оваа додадена вештачка интелигенција може да биде надвор од целната апликација за вештачка интелигенција или може да биде компонента вградена или имплантирана директно во вештачката интелигенција што сакаме да ја провериме повторно.

Како што кажав претходно, види врската овде: „Неодамна појавен тренд се состои од обид да се вградат етички заштитни огради во вештачката интелигенција што ќе се фати додека остатокот од системот за вештачка интелигенција ќе почне да ги надминува однапред поставените етички граници. Во извесна смисла, целта е да се користи самата вештачка интелигенција за да не тргне етички наопаку. Може да се каже дека имаме за цел да ја излечиме вештачката интелигенција“ (Ленс Елиот, „Создавање етичка вештачка интелигенција што ја следи неетичката вештачка интелигенција и се обидува да ја одврати лошата вештачка интелигенција од дејствување“, Форбс, 28 март 2022 година).

Можеби ќе најдете релевантен интерес за мојата книга Ботови за чувари на вештачка интелигенција, понекогаш наречени ангели чувари, што ги покрива техничките основи на оваа најсовремена ВИ-во-Ви-вградена двојна проверка, види врската овде.

Во крајна линија е дека вашата сланина за среќа може да биде зачувана со употреба на вграден елемент за етичко мерење за двојно проверување на вештачката интелигенција, кој е смислен и вграден во апликација за вештачка интелигенција што ја користите. Но, дали тоа ќе биде доволен чувар за навистина да се увери дека вештачката интелигенција целосно не ве вкочанува и не се впушта во дури и штетна почва за хешер?

Гледате, апликацијата за вештачка интелигенција би можела навидум да функционира незаконски делува.

Едно е да се има вештачка интелигенција која влегува во сива зона на она што ние го сметаме за етичко или неетичко однесување. Подеднакво вознемирувачко однесување и веројатно влошена загриженост повлекува вештачка интелигенција која само ја прескокнува ајкулата како што е и се спушта во неквалитетната темнина на целосно незаконски дејствија.

Незаконската вештачка интелигенција е лоша. Да се ​​дозволи незаконска вештачка интелигенција да помине без надзор е лошо. Некои правни научници се отворено загрижени дека појавата и продорноста на вештачката интелигенција постепено и застрашувачки ќе го намалат нашиот изглед на владеењето на правото, видете ја мојата анализа на врската овде.

Почекајте малку, можеби велите.

Можеби ќе бидете во искушение да мислите дека развивачите на вештачка интелигенција би го направиле тоа никогаш програмираат нивната вештачка интелигенција да оди спротивно на законот. Незамисливо. Тоа би го направиле само злобните негативци (кои, патем, имајте на ум дека има и такви кои намерно смислуваат и користат вештачка интелигенција за зли цели, растечка област на интерес за криминалците и другите кои сакаат да користат вештачка интелигенција за злобни активности).

Извинете, но пуста желба е да се претпостави дека сите незлобни развивачи на вештачка интелигенција строго ќе се погрижат нивната вештачка интелигенција целосно да го почитува законот. Можеби вештачката интелигенција се прилагодува и залута во нелегални активности. Се разбира, постои и потенцијал дека развивачите на вештачка интелигенција или сакале вештачката интелигенција да дејствува незаконски или дека не биле свесни што претставувале незаконски наспроти правни акти кога ја изработувале вештачката интелигенција (да, ова е сосема можно, имено дека Тимот за целосно технолошка вештачка интелигенција со глави надолу може да биде неук за правните шегобини на нивната вештачка интелигенција, што не е простливо, а сепак се случува со алармантна фреквенција).

Што може да се направи за ова?

Уште еднаш, покрај обидот да се осигура дека вештачката интелигенција надвор од портата е железна и легална, дополнителен пристап за добивање на пареа вклучува вградување или вградување на компонента за вештачка интелигенција која врши легална двојна проверка за остатокот од апликацијата за вештачка интелигенција. Седејќи тивко и често ненајавено, оваа додадена вештачка интелигенција го набљудува останатиот дел од вештачката интелигенција за да се обиде да открие дали вештачката интелигенција ќе биде нечесна или барем ќе ги надмине границите на законските или регулаторните наметнати ограничувања.

Сега имаме два вида на двојна проверка на вештачката интелигенција кои се потенцијално вградени во апликација за вештачка интелигенција:

  • Двојна проверка на етика на вештачката интелигенција: Во реално време, оваа компонента или додатокот за вештачка интелигенција го проценува остатокот од вештачката интелигенција за етичко и неетичко однесување што ги покажува ВИ
  • Правна двојна проверка на вештачката интелигенција: Во реално време, оваа компонента или додатокот за вештачка интелигенција го проценува останатиот дел од вештачката интелигенција за уверување дека ќе остане во рамките на законските клучни точки и за фаќање на нелегални активности кои се појавуваат од страна на вештачката интелигенција.

Да се ​​разјасни, тоа се релативно нови концепции и како таква вештачката интелигенција што ја користите денес може да биде во која било од овие сегашни услови:

  • Вештачка интелигенција која воопшто нема вклучени двојни контроли
  • Вештачка интелигенција која има вклучена двојна проверка за етика на вештачката интелигенција, но нема други двојни проверки
  • Вештачка интелигенција која има вклучена правна двојна проверка на вештачката интелигенција, но нема други двојни проверки
  • Вештачка интелигенција која има и двојна проверка за етика на вештачката интелигенција и двојна проверка на правна вештачка интелигенција
  • други

Има некои изразито незгодни аспекти да се има двојна проверка на етика на вештачката интелигенција и двојна проверка на правна вештачка интелигенција кои работат рамо до рамо во апликација за вештачка интелигенција како сродни брат и сестра. Ова е еден вид дуализам што може да биде потешко да се координира отколку што може да претпоставите (мислам дека сите знаеме дека браќата и сестрите можат да имаат најтесни врски, иако тие исто така можат да се борат како Дикенс од време на време и да имаат енергично спротивставување погледи).

Долго разговарав за овој тип на напорни дуализам: „Се појавува занемарен дуализам во вештачката интелигенција за општествено добро, што вклучува недостаток на опфат на улогата на вештачка морална агенција и вештачко правно расудување во напредните системи за вештачка интелигенција. Напорите на истражувачите на вештачката интелигенција и развивачите на вештачка интелигенција имаат тенденција да се фокусираат на тоа како да создадат и вградуваат вештачки морални агенти за да го водат моралното донесување одлуки кога системот за вештачка интелигенција работи на теренот, но исто така не се фокусираа и ја комбинираа употребата на способности за вештачко правно расудување , што е подеднакво неопходно за силни морални и правни резултати“ (Ленс Елиот, „Запоставениот дуализам на вештачка морална агенција и вештачко правно расудување во вештачката интелигенција за општествено добро“, Годишна конференција CRCS на Универзитетот Харвард, 2020 година, Центарот за истражување и пресметување на Харвард)

Ако сакате да размислите зошто може да има тензија помеѓу двојната проверка на етика на вештачката интелигенција и правната двојна проверка на вештачката интелигенција, можеби ќе го најдете овој значаен цитат за концептуална достојност што го нарушува умот: „Законот може да дозволи одреден чин, иако тој чин е неморален; и законот може да забрани чин, иако тој чин е морално дозволен, па дури и морално потребен“ (Шели Каган, Границите на моралот, 1998).

Ајде малку да го префрлиме нашиот фокус и да видиме како овие двојни проверки се префрлаат во друга многу детална тема за вештачката интелигенција, имено Одговорна вештачка интелигенција или усогласено разгледување на усогласувањето на човечките вредности и вештачката интелигенција.

Општата идеја е дека сакаме вештачка интелигенција која се придржува до соодветните и посакуваните човечки вредности. Некои го нарекуваат ова како Одговорна вештачка интелигенција. Слично разговараат и други Одговорна вештачка интелигенција, Доверлива вештачка интелигенција, и Порамнување со вештачка интелигенција, од кои сите допираат до истиот принцип на камен-темелник. За мојата дискусија за овие важни прашања, видете врската овде врската овде, само за да именуваме неколку.

Како можеме да ја натераме вештачката интелигенција да се усогласи со човечките вредности?

Како што беше предложено претходно, би се надевале дека програмерите на вештачка интелигенција ќе бидат свесни за развојот на вештачката интелигенција што постигнува одговорно придржување кон вештачката интелигенција. За жал, тие можеби нема, според причините што претходно беа објаснети. Покрај тоа, тие би можеле да се обидат да го сторат тоа, а сепак, вештачката интелигенција завршува само-прилагодувајќи се надвор од истакнатото подрачје на етичкото однесување или можеби во незаконски води.

Во ред, тогаш треба да ги земеме предвид нашите практични двојни контролни контроли како средство за поткрепување на овие ризици и изложеност. Употребата на добро осмислена двојна проверка на етика на вештачката интелигенција може материјално да помогне во усогласувањето на вештачката интелигенција со човечките вредности. Слично на тоа, употребата на добро осмислена правна двојна проверка на вештачката интелигенција може значително да помогне во усогласувањето на вештачката интелигенција со човечките вредности.

Така, суштинско и сè уште не добро познато средство за барање да се дојде до одговорна вештачка интелигенција, доверлива вештачка интелигенција, одговорна вештачка интелигенција, усогласување со вештачка интелигенција, итн., би вклучила употреба на двојни проверки за вештачка интелигенција, како што е двојна проверка на етика на вештачката интелигенција и Правна двојна проверка на вештачката интелигенција која неуморно би работела како двојна проверка на вештачката интелигенција во која се вградени.

Во оваа дискусија овде, би сакал да навлезам во малку подетални детали за природата и конструкциите на правните двојни проверки на вештачката интелигенција што би можеле да бидат вградени во вештачката интелигенција. За да го направите тоа, може да биде корисно да споделите со вас некоја дополнителна позадина за целокупната тема на ВИ и право.

За бесмислено испитување за тоа како вештачката интелигенција и законот се мешаат едни со други, видете ја мојата дискусија на врската овде. Во мојот остроумен поглед на ВИ и право спојувајќи, ја давам оваа јасна концепција за два главни начини за меѓусебно поврзување на вештачката интелигенција и законот:

  • (1) Закон-применет-на-ВИ: Формулирање, донесување и спроведување на закони кои се применуваат за регулирање или управување со вештачката интелигенција во нашето општество
  • (2) AI-применет-на-закон: Технологијата за вештачка интелигенција осмислена и применета во законот, вклучително и правно резонирање (AILR) базирано на вештачка интелигенција, внесено во високотехнолошките апликации LegalTech за автономно или полуавтономно извршување на адвокатски задачи

Првото наведено гледиште се состои од разгледување како постоечките и новите закони ќе управуваат со вештачката интелигенција. Втората наведена перспектива има врска со примената на вештачката интелигенција во законот.

Оваа последна категорија обично вклучува примена на правно резонирање засновано на вештачка интелигенција (AILR) во различни онлајн алатки што ги користат адвокатите. На пример, вештачката интелигенција може да биде дел од пакетот за управување со животниот циклус на договори (CLM) кој им помага на адвокатите со идентификување на договорниот јазик што ќе биде корисен за изготвување нови договори или може да открие договори што имаат законски жесток јазик што дозволува несреќи или правни дупки (за мојот поглед кон т.н врската овде).

Неизбежно ќе имаме вештачка интелигенција применета на законот кој станува достапен за употреба од пошироката јавност и кој не бара адвокат да биде во јамка. Во моментов, како резултат на различни ограничувања, вклучително и UPL (Неовластено практикување на правото), ставањето достапни апликации за правно советување засновани на вештачка интелигенција е трнливо и контроверзно прашање, видете ја мојата дискусија на врската овде.

Го наведов овој вовед за вештачката интелигенција и законот за да укажам дека друга инструментална употреба на вештачката интелигенција применета на законот би била создавањето на правни двојни проверки за вештачка интелигенција.

Да. Правната двојна проверка на вештачката интелигенција е компонента што треба да биде запознаена со правните аспекти. Кога остатокот од апликацијата за вештачка интелигенција врши различни дејства, двојната проверка на правната вештачка интелигенција проценува дали апликацијата за вештачка интелигенција го прави тоа легално и во рамките на законските ограничувања.

Компонентата за двојна проверка на правната вештачка интелигенција не мора нужно да го покрие целиот опсег на сè што треба да се знае за законот. Во зависност од природата на апликацијата за вештачка интелигенција во однос на целта и активностите на вештачката интелигенција севкупно, правната проверка на вештачката интелигенција може да биде многу потесна во однос на правната експертиза што ја содржи.

Идентификував корисна рамка за прикажување како вештачката интелигенција во правниот домен се движи низ низа автономни капацитети, познати како Нивоа на автономија (LoA). За преглед видете го мојот Форбс објава на колумна од 21 ноември 2022 година, „Не-глупости сеопфатен привлечен случај за тоа зошто адвокатите треба да знаат за вештачката интелигенција и законот“ на врската овде, и за детално техничко прикажување видете го мојот напис за длабинско истражување во MIT Computational Law Journal од 7 декември 2021 година, види врската овде.

Рамката разјаснува пет нивоа на вештачка интелигенција што се користи во правните напори:

  • Ниво 0: Нема автоматизација за правна работа базирана на вештачка интелигенција
  • Ниво 1: Едноставна автоматизација за помош за правна работа базирана на вештачка интелигенција
  • Ниво 2: Напредна автоматизација за помош за правна работа базирана на вештачка интелигенција
  • Ниво 3: Полуавтономна автоматизација за правна работа базирана на вештачка интелигенција
  • Ниво 4: Домен автономен за правна работа базирана на вештачка интелигенција
  • Ниво 5: Целосно автономно за правна работа заснована на вештачка интелигенција

Овде накратко ќе ги опишам.

Нивото 0 се смета за ниво без автоматизација. Правното расудување и правните задачи се извршуваат преку рачни методи и главно се случуваат преку пристапи базирани на хартија.

Нивото 1 се состои од едноставна автоматизација за помош за правно расудување со вештачка интелигенција. Примери за оваа категорија би вклучувале употреба на секојдневна компјутерска обработка на текст, употреба на секојдневни компјутерски табели, пристап до онлајн правни документи кои се складираат и преземаат по електронски пат итн.

Ниво 2 се состои од напредна автоматизација за помош за правно расудување со вештачка интелигенција. Примери за оваа категорија би вклучувале употреба на рудиментирана обработка на природен јазик (NLP) во стил на барање, симплистички елементи на машинско учење (ML), алатки за статистичка анализа за предвидувања на правни случаи итн.

Нивото 3 се состои од полуавтономна автоматизација за правно расудување со вештачка интелигенција. Примери од оваа категорија би вклучувале употреба на напредни системи засновани на знаење (KBS) за правно расудување, употреба на машинско учење и длабоко учење (ML/DL) за правно расудување, напреден НЛП итн.

Нивото 4 се состои од автономни компјутерски системи засновани на домен за правно расудување со вештачка интелигенција. Ова ниво повторно го користи концептуалниот поим за домени за оперативен дизајн (ОДД), како што се користи за самоуправувачки автомобили, но како што се применува на правниот домен. Правните домени може да се класифицираат по функционални области, како што се семејното право, законот за недвижности, законот за стечај, законот за животна средина, даночниот закон итн.

Нивото 5 се состои од целосно автономни компјутерски базирани системи за правно расудување со вештачка интелигенција. Во извесна смисла, Ниво 5 е супермножество на Ниво 4 во смисла на опфаќање на сите можни правни домени. Ве молиме сфатете дека ова е прилично висока нарачка.

Можете да ги замислите овие Нивоа на автономија на исто ниво со сличните употреби кога разговарате за самоуправувачки автомобили и автономни возила (исто така врз основа на официјалниот стандард SAE, видете ја мојата покриеност на врската овде). Сè уште немаме самоуправувачки автомобили SAE Ниво 5. Навлегуваме во самоуправувачки автомобили SAE Ниво 4. Повеќето конвенционални автомобили се на SAE Ниво 2, додека некои од поновите автомобили се движат во SAE Ниво 3.

Во правниот домен, сè уште немаме AILR Ниво 5. Допираме до одредено ниво 4, иако во исклучително тесни коефициенти. Нивото 3 почнува да ја гледа светлината на денот, додека главниот столб на AILR денес е првенствено на ниво 2.

Една неодамнешна истражувачка статија за вештачката интелигенција која се применува на законот постави типификација позната како Законот го информира Кодексот. Истражувачот го наведува ова: „Една од примарните цели на Законот го информира Кодексот агендата е да се научи вештачката интелигенција да го следи духот на законот“ (Џон Џеј Неј, „Законот го информира Кодексот: Правен информатички пристап за усогласување на вештачката интелигенција со луѓето“, Северозападен весник за технологија и интелектуална сопственост, том 20, претстојно). Постојат некои суштински размислувања дека Законот го информира Кодексот мантра се појавува и јас ќе ве прошетам низ неколку од тие клучни правила.

Пред да се фрлам во темата, би сакал прво да поставам некоја суштинска основа за вештачката интелигенција и особено за етиката на вештачката интелигенција и законот за вештачка интелигенција, правејќи го тоа за да се уверам дека дискусијата ќе биде контекстуално разумна.

Зголемување на свеста за етичката вештачка интелигенција, а исто така и законот за вештачка интелигенција

Неодамнешната ера на вештачката интелигенција првично се сметаше за постоење AI за добро, што значи дека би можеле да користиме вештачка интелигенција за подобрување на човештвото. На петиците на AI за добро дојде сознанието дека и ние сме потопени AI за лошо. Ова ја вклучува вештачката интелигенција која е измислена или самопроменета во дискриминаторска и прави пресметковни избори со несоодветни предрасуди. Понекогаш вештачката интелигенција е изградена на тој начин, додека во други случаи скршнува на таа неповолна територија.

Сакам да бидам сигурен дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителната вештачка интелигенција, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Силно би предложил да ги задржиме работите приземни и да ја земеме предвид денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

Бидете многу внимателни со антропоморфизирање на денешната вештачка интелигенција.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање со шаблони на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Сето ова има особено значајни импликации за етика на вештачката интелигенција и нуди практичен прозорец во научените лекции (дури и пред да се случат сите лекции) кога станува збор за обидот да се донесе законска вештачка интелигенција.

Покрај користењето на правилата за етика на вештачката интелигенција општо, постои соодветно прашање дали треба да имаме закони за регулирање на различните употреби на вештачката интелигенција. На федерално, државно и локално ниво се шират нови закони кои се однесуваат на опсегот и природата на тоа како треба да се смисли вештачката интелигенција. Напорот за изготвување и донесување такви закони е постепен. Етиката на вештачката интелигенција во најмала рака служи како запирање и речиси сигурно до одреден степен ќе биде директно инкорпорирана во тие нови закони.

Бидете свесни дека некои категорично тврдат дека не ни требаат нови закони кои покриваат вештачка интелигенција и дека нашите постоечки закони се доволни. Тие предупредуваат дека ако навистина донесеме некои од овие закони за вештачка интелигенција, ќе ја убиеме златната гуска со тоа што ќе го спречиме напредокот во вештачката интелигенција што нуди огромни општествени предности.

Во претходните колумни, ги опфатив различните национални и меѓународни напори за создавање и донесување закони што ја регулираат вештачката интелигенција, види врската овде, на пример. Ги опфатив и различните принципи и упатства за етика на вештачката интелигенција што различни нации ги идентификуваа и усвоија, вклучувајќи ги на пример напорите на Обединетите нации како што е сетот на УНЕСКО за етика на вештачката интелигенција што го усвоија скоро 200 земји, види врската овде.

Еве корисна клучна листа на критериуми или карактеристики за етичка вештачка интелигенција во врска со системите за вештачка интелигенција што претходно внимателно ги истражив:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Тие принципи за етика на вештачката интелигенција искрено би требало да ги користат развивачите на вештачка интелигенција, заедно со оние кои управуваат со напорите за развој на вештачка интелигенција, па дури и оние кои на крајот се однесуваат и вршат одржување на системите за вештачка интелигенција.

Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се разгледуваат во опсегот на почитување на веќе воспоставените норми на Етичка вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на почитување на поимите за етика на вештачката интелигенција. Како што беше претходно нагласено овде, потребно е едно село за да се осмисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките прописи на вештачката интелигенција.

Неодамна го испитав и АИ Бил за права што е официјален наслов на официјалниот документ на американската влада насловен „Блупринт за Бил за правата на вештачката интелигенција: Да се ​​направат автоматизираните системи да функционираат за американскиот народ“ што беше резултат на едногодишниот напор на Канцеларијата за политика за наука и технологија (OSTP ). OSTP е федерален ентитет кој служи за советување на американскиот претседател и на американската Извршна канцеларија за различни технолошки, научни и инженерски аспекти од национално значење. Во таа смисла, може да се каже дека овој Бил за права на вештачката интелигенција е документ одобрен и одобрен од постојната Бела куќа на САД.

Во Законот за правата на вештачката интелигенција, постојат пет клучни категории:

  • Безбедни и ефективни системи
  • Алгоритамска заштита од дискриминација
  • Приватност на податоците
  • Известување и објаснување
  • Човечки алтернативи, размислување и резерва

Внимателно ги разгледав тие правила, види врската овде.

Сега, кога поставив корисна основа за овие поврзани теми за етика на вештачката интелигенција и Законот за вештачка интелигенција, подготвени сме да се фрлиме на жестоката тема за правната двојна проверка на вештачката интелигенција и доменот на Законот го информира Кодексот.

Правни двојни проверки на вештачката интелигенција вградени во вештачката интелигенција за усогласување на човечката вредност

Јас понекогаш се осврнувам на Правни двојни проверки на вештачката интелигенција преку акроним на AI-LDC. Ова е малку визуелно застрашувачко за оние кои не се запознаени со акронимот. Како таков, јас нема да го користам овој конкретен акроним во оваа дискусија, но сакав да ви го спомнам како предзнак.

За да ги отпакуваме некои од сложеноста на AI Legal двојни контроли, ајде да се осврнеме на овие главни точки:

  • Употреба на правни двојни проверки за вештачка интелигенција како механизам за усогласување на човечките вредности на ВИ
  • Попространата вештачка интелигенција соодветно ќе бара поцврста правна двојна проверка на вештачката интелигенција
  • Правните двојни проверки на вештачката интелигенција го донесуваат законот и особено не донесуваат закон (веројатно)
  • Деликатна рамнотежа помеѓу вештачката интелигенција Правно олицетворение на законот како правила наспроти стандарди
  • Барање доказ за пудингот кога станува збор за вештачка интелигенција која го почитува законот

Поради ограниченоста на просторот, засега само ќе ги опфатам тие пет точки, иако ве молам бидете внимателни за понатамошно покривање во мојата колумна која опфаќа дополнителни и подеднакво важни размислувања за овие прашања кои брзо се развиваат и се движат напред.

Токму сега, вклучете го појасот и подгответе се за возбудливо патување.

  • Употреба на правни двојни проверки за вештачка интелигенција како механизам за усогласување на човечките вредности на ВИ

Постојат бројни начини да се обидете да постигнете хармонично усогласување помеѓу вештачката интелигенција и човечките вредности.

Како што беше споменато претходно, можеме да произведуваме и да ги објавуваме етичките правила на вештачката интелигенција и да бараме развивачите на вештачка интелигенција и оние што работат и работат со вештачка интелигенција да се придржуваат до тие клучни точки. За жал, само ова нема да успее. Имате некои осмислувачи кои неизбежно нема да ја добијат пораката. Имате некои премислувачи кои ќе се пофалат со етичката вештачка интелигенција и ќе се обидат да ги заобиколат донекаде лабавите пропишани принципи. И така натаму.

Употребата на приоди на „меки закони“ кои повлекуваат етика на вештачката интелигенција треба речиси незапирливо да се поврзе со начини на „тврдо право“ како што се донесување закони и регулативи кои ќе испратат силен сигнал до сите што создаваат или користат вештачка интелигенција. Долгата рака на законот може да ве привлече ако не разумно ја користите вештачката интелигенција. Звукот на ѕвонењето на затворските врати може да привлече големо внимание.

Сепак, голем проблем е тоа што понекогаш вратата од шталата веќе ги пушта коњите да излезат и да се вратат. Вештачката интелигенција што ќе се најде на терен потенцијално ќе произведува секакви незаконски дејствија и ќе продолжи да го прави тоа додека не биде само фатена, туку и кога некое спроведување конечно ќе се засили за да го спречи протокот на незаконски дејствија. Сето тоа може да потрае. Во меѓувреме, луѓето се повредуваат на еден или друг начин.

Во овој напад доаѓа и AI Legal двојна проверка.

Со престој во апликација за вештачка интелигенција, правната двојна проверка на вештачката интелигенција може веднаш да открие кога се чини дека вештачката интелигенција го прекршува законот. Правната двојна проверка на вештачката интелигенција може да ја спречи вештачката интелигенција. Или, пак, компонентата може да ги предупреди луѓето за воочените незаконски активности, правејќи го тоа навремена основа што би можело да ги поттикне надгледниците на итни корективни мерки. Постои, исто така, сметано формализирано евидентирање што може да го создаде компонентата, обезбедувајќи опиплив изглед на ревизорска трага за целите на кодификација на негативните дејства на ВИ.

Се вели дека нашите закони се форма на конгломерација со повеќе агенти, така што законите неизбежно се мешавина од она што општеството се обиде да го постави како рамнотежа меѓу веројатните спротивставени ставови за правилно и несоодветно општествено однесување. Затоа, правната двојна проверка на вештачката интелигенција заснована на нашите закони ја отелотворува таа мешавина.

Имено, ова е повеќе од само програмирање листа на дефинитивни правни правила. Законите тежнеат да бидат податливи и да се стремат кон сеопфатни стандарди, наместо да ги специфицираат најситните микроскопски правила. Комплексностите се многу.

Враќајќи се на претходно забележаниот истражувачки труд, еве како овие размислувања може да се гледаат и во врска со стремежот за усогласување со вештачка интелигенција: „Законот, применетата филозофија на усогласување со повеќе агенти, уникатно ги исполнува овие критериуми. Усогласувањето е проблем затоа што не можеме ex ante наведете правила кои целосно и докажливо го насочуваат доброто однесување на вештачката интелигенција. Слично на тоа, страните на правниот договор не можат да ги предвидат сите непредвидени случаи на нивниот однос, а законодавците не можат да предвидат конкретни околности под кои ќе се применуваат нивните закони. Затоа голем дел од правото е констелација на стандарди“ (ibid).

Вградувањето на законот во правната двојна проверка на вештачката интелигенција е многу попредизвикувачки отколку што на почетокот може да претпоставите.

Како што напредува вештачката интелигенција, ќе треба соодветно да го искористиме таквиот напредок. Излегува дека она што е добро за гуската е добро и за гандерот. Оние од нас што постигнуваат напредок во вештачката интелигенција, како што се применува на законот, го туркаат обвивката за вештачката интелигенција и несомнено фалсификуваат нови достигнувања што на крајот може целосно да го поттикнат напредокот на вештачката интелигенција.

  • Попространата вештачка интелигенција соодветно ќе бара поцврста правна двојна проверка на вештачката интелигенција

Гамбитот на мачка и глушец се соочува со оваа тема.

Шансите се дека како што вештачката интелигенција ќе напредува, секоја компонента за двојна проверка на правната вештачка интелигенција ќе ги наоѓа работите сè потешко и потешко да се справи. На пример, апликацијата за вештачка интелигенција што се проверува може да има ново осмислени супер-подложни начини да ги скрие незаконските дејства што ги презема вештачката интелигенција. Дури и ако вештачката интелигенција не тргнува по таен пат, севкупната сложеност на вештачката интелигенција сама по себе би можела да биде застрашувачка пречка за да се бара двојна проверка на Правната вештачка интелигенција.

Еве како ова станува особено значајно.

Да претпоставиме дека развивач на вештачка интелигенција или некоја фирма што користи вештачка интелигенција, објави дека постои правна проверка на вештачката интелигенција која е вградена во апликацијата базирана на вештачка интелигенција. Воила, се чини дека сега ги измија рацете од какви било дополнителни грижи. За сè ќе се погрижи Правната двојна проверка на AI.

Не е така.

Правната двојна проверка на вештачката интелигенција може да биде недоволна за природата на вклучената апликација за вештачка интелигенција. Исто така, постои можност двојната проверка на AI Legal да стане застарена, можеби и да не се ажурира со најновите закони кои се однесуваат на апликацијата за вештачка интелигенција. Може да се предвидат низа причини зошто самото присуство на правна проверка на вештачката интелигенција нема да биде сребрен куршум.

Разгледајте ги овие сознанија од претходно цитираното истражување: „Како што напредува најсовремената вештачка интелигенција, можеме да поставиме повторувачки повисоки ленти на докажани способности за правно разбирање. Ако развивачот тврди дека нивниот систем има напредни способности за задачи, тие треба да покажат соодветно напредно правно разбирање и правни, расудувачки способности на вештачката интелигенција, кои практично немаат плафон на тешкотија кога се разгледуваат законите и прописите низ времето, преседанот и јурисдикцијата. “ (ibid).

  • Правните двојни проверки на вештачката интелигенција го донесуваат законот и особено не донесуваат закон (веројатно)

Сигурен сум дека некои од вас се вознемирени од идејата да ги имаат овие правни контроли за вештачка интелигенција.

Една често изразена загриженост е дека очигледно ќе дозволиме вештачката интелигенција да одлучува за нашите закони наместо нас. Добро боже, можеби мислите, некое парче автоматизација ќе го надмине човештвото. Тие проклети вградени ВИ Правни двојни контролери ќе станат стандардните кралеви на нашите закони. Што и да прават тие веројатно ќе биде она што се чини дека е законот.

Со луѓето ќе владее вештачката интелигенција.

И овие двојни контроли за правна вештачка интелигенција се лизгавата патека што нè носи таму.

Контрааргумент е дека таквиот разговор е материјал од теории на заговор. Диво постулираш и се вовлекуваш во тизи. Реалноста е дека овие правни двојни проверувачи на вештачката интелигенција не се чувствителни, тие нема да ја заземат планетата, а хитингот за нивниот егзистенцијален ризик е очигледно глупост и неизмерно преценет.

Сè на сè, останувајќи со смирено и разумно држење, треба да имаме на ум дека правната двојна проверка на вештачката интелигенција служат за соодветно да го одразуваат законот, а не по дизајн и ниту случајно да одиме подалеку за некако стандардно во почитуваното царство на правење. закон. Ако ги оставиме настрана екстраполациите на чувствата, секако можеме да се согласиме дека постои реална и итна загриженост дека правната двојна проверка на вештачката интелигенција може да заврши погрешно да ја претстави вистинската природа на даден закон.

За возврат, би можеле да тврдите дека затоа тој конкретен „погрешно претставен“ закон во суштина се прави одново, бидејќи тој повеќе не го означува соодветно она што беше наменето со вистинскиот закон. Верувам дека искрено можете да видите како ова е суптилно, но кажувачко размислување. Во секој момент од времето, Правната двојна проверка на вештачката интелигенција може на виртуелна основа со донесување или да речеме „халуцинира“ нови закони едноставно со тоа како компонентата на вештачката интелигенција го толкува законот како што е првично наведено или отелотворено во ВИ (за моето покривање на ВИ т.н халуцинации, Видете врската овде).

Мора да се внимава на ова.

На оваа тема, гореспоменатата истражувачка студија ја нуди оваа паралелна мисла во однос на обидот да се избегне преминување на таа света линија: „Ние не се стремиме кон вештачката интелигенција да има легитимитет да донесува закон, да поставува правен преседан или да спроведува закон. Всушност, ова би го поткопало нашиот пристап (и треба да вложиме значителен напор за да го спречиме тоа). Наместо тоа, најамбициозната цел на Кодексот за информирање на законот е пресметковно кодирање и вградување на генерализираноста на постоечките правни концепти и стандарди во потврдени перформанси на вештачката интелигенција“ (ibid).

  • Деликатна рамнотежа помеѓу вештачката интелигенција Правно олицетворение на законот како правила наспроти стандарди

Законите се неуредни.

За речиси секој закон за книгите, веројатно има мноштво толкувања за она што законот го пропишува во вистинската практика. Во зборот на полето на вештачката интелигенција, ние ги нарекуваме законите како семантички двосмислени. Тоа е она што го прави развојот на вештачката интелигенција што се применува на законот толку возбудлив и истовремено вознемирувачки предизвик. За разлика од прецизната бројка што може да ја видите за да речеме финансиски ориентирани апликации за вештачка интелигенција, желбата да се отелотворат нашите закони во вештачката интелигенција повлекува справување со цунами од семантички нејаснотии.

Во книгата на мојата фондација за основите на правното резонирање со вештачка интелигенција (AILR), дискутирам за тоа како претходните обиди за само кодифицирање на законите во збир на ограничени правила не нè одведоа толку далеку колку што би сакале да одиме во правниот домен (види врската овде). Денешниот AILR треба да опфати интеграција помеѓу употребата на правила и она што може да се нарече сеопфатни стандарди што ги претставува законот.

Оваа важна рамнотежа може да се изрази на овој начин: „Во пракса, повеќето законски одредби се спуштаат некаде на спектарот помеѓу чистото правило и чистиот стандард, а правната теорија може да помогне да се процени вистинската комбинација на „правило“ и „стандардност“ кога се специфицираат целите на системите за вештачка интелигенција“ (ibid).

  • Барање доказ за пудингот кога станува збор за вештачка интелигенција која го почитува законот

Да сакаш нешто е различно од тоа да имаш нешто.

Таа трошка мудрост се појавува кога ќе кажеме дека иако можеби сакаме да имаме двојни контроли за правна вештачка интелигенција, изобилно треба да се увериме дека тие работат и функционираат правилно. Забележете дека ова претставува уште една тешка и исцрпувачка пречка. Ги опфатив претходно најновите достигнувања и предизвици во верификацијата и валидацијата на вештачката интелигенција, видете врската овде.

Како што е забележано во истражувачкиот труд: „За да се реши јазот, пред моделите на вештачка интелигенција да бидат распоредени во сè повеќе агенциски капацитети, на пр., целосно автономни возила на главните патишта, страната што ја распоредува треба да покаже дека системот ги разбира човечките цели, политики и правни стандарди. Постапката за валидација може да го илустрира „разбирањето“ на ВИ за „значењето“ на правните концепти“ (ibid).

Заклучок

Ве повикувам да размислите да ми се придружите во оваа благородна потрага за градење и изведување на правни двојни контроли за вештачка интелигенција. Ни треба повеќе внимание и ресурси посветени на оваа доблесна потрага.

Ова, исто така, обезбедува двојна должност, како што беше споменато претходно, кон постигнување правно расудување со вештачка интелигенција (AILR) што може да се користи за помош на адвокатите и потенцијално директно да се користи од пошироката јавност. Навистина, некои жестоко тврдат дека единственото остварливо средство за постигнување поцелосно чувство за пристап до правдата (A2J) ќе биде преку изработка на вештачка интелигенција што ги отелотворува правните капацитети и до која може да пристапат сите.

Една брза последна точка за сега.

Во досегашната дискусија беше нагласено дека правната двојна проверка на вештачката интелигенција ќе биде вградена или вградена во вештачката интелигенција. Ова е навистина примарен фокус на оние кои го истражуваат и преземаат ова царство што се појавува.

Еве едно прашање што вреди да се размисли.

Ставете ја вашата капа за размислување.

Зошто да не користите AI Legal двојни проверки во целиот софтвер?

Суштината е дека наместо исклучиво користење на правната двојна проверка на вештачката интелигенција во вештачката интелигенција, можеби треба да го прошириме нашето гледиште. Сите видови на софтвер можат легално да залутаат. Вештачката интелигенција секако го привлече лавовскиот дел од вниманието поради начините на кои вештачката интелигенција вообичаено се става во употреба, како што е донесувањето на тешки одлуки кои влијаат на луѓето во нивниот секојдневен живот. Сепак, можете лесно да тврдите дека има многу системи кои не се ВИ кои го прават истото.

Во суштина, не треба да дозволиме ниту еден софтвер да има бесплатно возење за да го избегне или спречи законот.

Потсетете се и претходно дека ги спомнав двете категории на комбинирање на вештачката интелигенција и законот. Овде се фокусиравме на употребата на вештачка интелигенција како што се применува на законот. Од другата страна на паричката е примената на законот за вештачката интелигенција. Да претпоставиме дека донесуваме закони кои бараат употреба на правна двојна проверка на вештачката интелигенција.

Ова најпрво може да биде ограничено на системи со вештачка интелигенција, особено оние што се оценети како особено ризични. Постепено, истото барање за правна двојна проверка на вештачката интелигенција може да се прошири и на софтвер што не е ВИ. Повторно, нема бесплатни возења.

Додека вие се занимавате со горенаведеното размислување, јас ќе ги зачинам работите како завршница. Ако сакаме да бараме двојни проверки за правна вештачка интелигенција, можеби истото ќе го правиме и за двојните проверки за етика на вештачката интелигенција. Употребата на правна проверка на вештачката интелигенција е само половина од приказната и не можеме да ги занемариме или заборавиме и грижите за етика на вештачката интелигенција.

Ќе го завршам овој весел дискурс со еден од моите омилени цитати. Според мудрите зборови на Ерл Ворен, познатиот правник кој служел како главен судија на Соединетите Држави: „Во цивилизираниот живот, законот плови во морето од етика“.

Можеби е најдобро жестоко да ги ставиме оние кои се развиваат и жуборуваат Правни двојни проверки за вештачка интелигенција и двојни контроли за етика на вештачката интелигенција во страствена употреба ако сакаме да ги држиме главите над потенцијално тешките мориња од киселата вештачка интелигенција и системите без вештачка интелигенција што ја загрозуваат нашата безбедност .

Тие може да бидат спасувачки елек на човештвото.

Извор: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- и-ai-прав/