Етика за вештачка интелигенција и закон за вештачка интелигенција поставувајќи тешки прашања за тоа ново ветување од страна на креаторите на роботи кои танцуваат, велејќи дека ќе го спречат оружјето со вештачка интелигенција

Можеби минатата недела сте виделе во вестите или сте забележале на социјалните мрежи најавеното ветување на некои производители на роботи за нивните наводни цели да избегнат вооружување со вештачка интелигенција на роботите за општа намена. Ќе ве прошетам низ деталите за момент, па не грижете се ако не сте ја разбрале работата.

Реакцијата на оваа прокламација беше брза и, можеби како и обично во нашето поларизирано општество, беше и пофална и понекогаш потсмевно критична или искрено гадно скептична.

Тоа е приказна за два света.

Во еден свет, некои велат дека токму тоа ни треба одговорното AI робот програмери да се изјаснат.

Фала богу што сте на вистинската страна на прашање кое постепено ќе станува се повидливо и позагрижувачко. Тие слатки танцувачки роботи се вознемирувачки затоа што е прилично лесно да се натераат да носат оружје и да се користат на најлош начин (можете сами да го проверите ова со одење на социјалните мрежи и има многу видеа на кои се прикажани роботи кои танцуваат вооружени со митралези и друго вооружување).

Другата страна на оваа паричка вели дека т.н. Како и да е, сомнежите поттикнуваат дека ова е незауздана доблест сигнализација во контекст на танцувачките роботи. Гледате, жалењето за фактот дека роботите за општа намена може да се вооружуваат е секако вредно и сериозно барано размислување, иако само тврдењето дека производителот нема да го стори тоа е веројатно шупливо ветување, инсистираат некои.

Сè на сè, целото прашање покренува доста голем сет на размислувања за етика на вештачката интелигенција и закон за вештачка интелигенција. Прецизно ќе ја отпакуваме темата и ќе видиме како ова е двоен удар на етичка и правна вештачка интелигенција. За моето тековно и опширно покривање на етиката на вештачката интелигенција и законот за вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Во текот на оваа дискусија ќе се осврнам и на моите претходни анализи за опасностите од оружјето со вештачка интелигенција, како што е мојата длабинска проценка на врската овде. Можеби ќе сакате да го погледнете тој дискурс за дополнителни детали зад сцената.

Отвореното писмо што отвора конзерва со црви

Да ја започнеме оваа анализа со внимателно истражување чекор-по-чекор на Отвореното писмо кое неодамна беше објавено од шест релативно добро познати напредни производители на роботи, имено Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics и Unitree. Во голема мера, претпоставувам дека сте ги виделе главно роботите на Boston Dynamics, како што се оние што се шетаат на сите четири. Изгледаат како да се како кучиња и уживаме да ги гледаме како се тркалаат наоколу.

Како што претходно и постојано предупредував, употребата на такви „танцувачки“ роботи како средство за убедување на пошироката јавност дека овие роботи се слатки и симпатични е за жал залажувачка и скршнува во изобилните замки на нивното антропоморфизирање. Почнуваме да размислуваме за овие стврднати парчиња метал и пластика како да се еквивалент на милувачко лојално куче. Нашата подготвеност да ги прифатиме овие роботи е заснована на лажно чувство на сигурност и сигурност. Секако, треба да заработите пари, а шансите да го направите тоа се зголемуваат со парадирање околу роботи кои танцуваат, но ова за жал го испушта или навидум го крие вистинскиот факт дека овие роботи се роботи и дека вештачката интелигенција што ги контролира роботите може да биде измислена погрешно. или тргнете наопаку.

Размислете за овие последици на вештачката интелигенција (извадок од мојата статија за вооружување со вештачка интелигенција, најдена на врската овде):

  • Вештачката интелигенција може да наиде на грешка што ќе ја натера да залута
  • Вештачката интелигенција може да биде преоптоварена и да се заклучи неодговорно
  • Вештачката интелигенција може да содржи грешки на програмерите што предизвикуваат непредвидливо однесување
  • Вештачката интелигенција може да биде оштетена со вграден вирус на злосторници
  • ВИ може да биде преземена од сајберхакери во реално време
  • ВИ може да се смета за непредвидлива поради сложеноста
  • ВИ може пресметковно да донесе „погрешна“ одлука (релативно)
  • Итн

Тоа се точки во врска со вештачката интелигенција која е од типот што е вистински измислен на почетокот за да се направи вистинската работа.

Згора на тие размислувања, мора да вклучите системи за вештачка интелигенција создадени од самиот почеток за да прават лоши работи. Може да имате вештачка интелигенција која е направена за корисни цели, честопати наречена AI за добро. Може да имате и вештачка интелигенција која е намерно направена за лоши цели, позната како AI за лошо. Понатаму, можете да имате AI за добро што е расипано или повторно превртено во станување AI за лошо.

Патем, ништо од ова нема врска со тоа што вештачката интелигенција станува чувствителна, што го споменувам затоа што некои постојано извикуваат дека денешната вештачка интелигенција или е чувствителна или на работ да биде чувствителна. Не е така. Ги разделувам тие митови во мојата анализа на врската овде.

Тогаш, да се увериме дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителната вештачка интелигенција, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Силно би предложил да ги задржиме работите приземни и да ја земеме предвид денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

Бидете многу внимателни со антропоморфизирање на денешната вештачка интелигенција.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање со шаблони на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Сето ова има особено значајни импликации за етика на вештачката интелигенција и нуди практичен прозорец во научените лекции (дури и пред да се случат сите лекции) кога станува збор за обидот да се донесе законска вештачка интелигенција.

Покрај користењето на правилата за етика на вештачката интелигенција општо, постои соодветно прашање дали треба да имаме закони за регулирање на различните употреби на вештачката интелигенција. На федерално, државно и локално ниво се шират нови закони кои се однесуваат на опсегот и природата на тоа како треба да се смисли вештачката интелигенција. Напорот за изготвување и донесување такви закони е постепен. Етиката на вештачката интелигенција во најмала рака служи како запирање и речиси сигурно до одреден степен ќе биде директно инкорпорирана во тие нови закони.

Бидете свесни дека некои категорично тврдат дека не ни требаат нови закони кои покриваат вештачка интелигенција и дека нашите постоечки закони се доволни. Тие предупредуваат дека ако навистина донесеме некои од овие закони за вештачка интелигенција, ќе ја убиеме златната гуска со тоа што ќе го спречиме напредокот во вештачката интелигенција што нуди огромни општествени предности.

Во претходните колумни, ги опфатив различните национални и меѓународни напори за создавање и донесување закони што ја регулираат вештачката интелигенција, види врската овде, на пример. Ги опфатив и различните принципи и упатства за етика на вештачката интелигенција што различни нации ги идентификуваа и усвоија, вклучувајќи ги на пример напорите на Обединетите нации како што е сетот на УНЕСКО за етика на вештачката интелигенција што го усвоија скоро 200 земји, види врската овде.

Еве корисна клучна листа на критериуми или карактеристики за етичка вештачка интелигенција во врска со системите за вештачка интелигенција што претходно внимателно ги истражив:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Тие принципи за етика на вештачката интелигенција искрено би требало да ги користат развивачите на вештачка интелигенција, заедно со оние кои управуваат со напорите за развој на вештачка интелигенција, па дури и оние кои на крајот се однесуваат и вршат одржување на системите за вештачка интелигенција.

Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се разгледуваат во опсегот на почитување на веќе воспоставените норми на Етичка вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на почитување на поимите за етика на вештачката интелигенција. Како што беше претходно нагласено овде, потребно е едно село за да се осмисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките прописи на вештачката интелигенција.

Сега кога поставив корисна основа за влегување во Отвореното писмо, подготвени сме да се нурнеме.

Официјалниот наслов на Отвореното писмо е овој:

  • "Отворено писмо до роботската индустрија и нашите заедници, роботите за општа намена не треба да се вооружуваат“ (како што е објавено на интернет).

Досега добро.

Насловот речиси изгледа како сладолед и пита со јаболка. Како може некој да го оспори ова како некогашен повик да се избегне вооружување на роботите со вештачка интелигенција?

Прочитајте за да видите.

Прво, како сточна храна за разгледување, еве го официјалниот воведен параграф на Отвореното писмо:

  • „Ние сме некои од водечките светски компании посветени на воведување на нови генерации на напредна мобилна роботика во општеството. Овие нови генерации на роботи се подостапни, полесни за ракување, поавтономни, достапни и поприлагодливи од претходните генерации и способни за навигација до локации кои претходно биле недостапни за автоматизирани или далечински управувани технологии. Ние веруваме дека напредните мобилни роботи ќе обезбедат голема корист за општеството како соработници во индустријата и придружници во нашите домови“ (како што е објавено на интернет).

Сончевата страна на појавата на овие типови роботи е тоа што можеме да очекуваме да се појават многу големи придобивки. Без сомнение за тоа. Можеби имате робот во вашиот дом кој може да ги врши оние активности слични на Џетсон, како што се чистење на вашата куќа, миење садови и други задолженија низ домаќинството. Ќе имаме напредни роботи за употреба во фабрики и производствени капацитети. Роботите потенцијално можат да ползат или маневрираат во тесни простори, како на пример кога зградата се урива и кога се загрозени човечки животи за да се спасат. И така натаму.

Како настрана, можеби ќе ви биде интересно моето неодамнешно критичко покривање на Денот на вештачката интелигенција на Тесла, на кој некои видови роботи кои одат беа прикажани од Илон Маск како иднина за Тесла и општеството, види врската овде.

Назад на предметот што е при рака. Кога сериозно разговараме за роботи кои танцуваат или роботи кои шетаат, треба внимателно да ги земеме предвид компромисите или вкупниот ROI (Поврат на инвестицијата) од оваа употреба на ВИ. Не треба да дозволиме да бидеме премногу заљубени во придобивките кога треба да се земат предвид и трошоците.

Новата сјајна играчка може да има прилично остри рабови.

Сето ова поттикнува важна, но донекаде тивка точка дека дел од причината што сега се појавува прашањето за вооружување со вештачка интелигенција се должи на напредокот на вештачката интелигенција кон автономна активност. Обично очекувавме дека оружјето генерално е управувано од луѓе. Човекот одлучува дали да пука или да го вклучи оружјето. Веројатно можеме да го сметаме тој човек одговорен за своите постапки.

Вештачката интелигенција која е осмислена да работи автономно или која може да биде измамена да го стори тоа, навидум би го отстранила човекот од јамката. Вештачката интелигенција тогаш алгоритамски донесува пресметковни одлуки кои можат да завршат со убивање или оштетување на луѓето. Покрај очигледната загриженост за недостатокот на контрола врз вештачката интелигенција, вие исто така имате недоумици дека можеби ќе имаме напорно време да ја закачите одговорноста за дејствата на вештачката интелигенција. Ние немаме човек кој е наш очигледен поттикнувач.

Сфаќам дека некои веруваат дека треба едноставно и директно да ја сметаме вештачката интелигенција одговорна за нејзините постапки, како да вештачката интелигенција постигнала чувство или на друг начин добила правна личност (видете го моето покривање за дебатите за вештачката интелигенција што добива правно лице на врската овде). Тоа засега нема да функционира. Ќе мораме да ја следиме вештачката интелигенција до луѓето кои или ја осмислиле или кои ја исфрлиле. Тие несомнено ќе се обидат легално да ја избегнат одговорноста обидувајќи се да тврдат дека вештачката интелигенција отишла подалеку од она што тие го замислиле. Ова е растечка расправа со која треба да се справиме (видете ги моите написи од Законот за вештачка интелигенција за увид во спорните прашања кои се вклучени).

Обединетите нации (ОН) преку Конвенцијата за одредени конвенционални оружја (CCW) во Женева воспоставија единаесет необврзувачки Водечки принципи за смртоносно автономно оружје, како што е наведено во официјалниот извештај објавен на интернет (вклучувајќи упатувања на релевантните одредби за Меѓународното хуманитарно право или одредбите за МХП) , вклучувајќи:

(а) Меѓународното хуманитарно право продолжува целосно да се применува на сите системи на оружје, вклучувајќи го потенцијалниот развој и употреба на смртоносни системи за автономно оружје;

(б) Човечката одговорност за одлуките за употреба на системи за оружје мора да се задржи бидејќи одговорноста не може да се пренесе на машините. Ова треба да се земе предвид во текот на целиот животен циклус на системот за оружје;

(в) Интеракцијата човек-машина, која може да има различни форми и да се имплементира во различни фази од животниот циклус на оружјето, треба да осигури дека потенцијалната употреба на системи за оружје засновани на новите технологии во областа на смртоносните автономни вооружени системи е во усогласеност со важечкото меѓународно право, особено МХП. При одредувањето на квалитетот и степенот на интеракцијата човек-машина, треба да се земат предвид низа фактори, вклучувајќи го оперативниот контекст и карактеристиките и способностите на системот за оружје како целина;

(г) Одговорноста за развој, распоредување и користење на кој било нов систем на оружје во рамките на CCW мора да се обезбеди во согласност со важечкото меѓународно право, вклучително и преку функционирањето на таквите системи во рамките на одговорниот синџир на човечка команда и контрола;

(д) Во согласност со обврските на државите според меѓународното право, при проучувањето, развојот, стекнувањето или усвојувањето на ново оружје, средства или метод на војување, мора да се утврди дали неговото вработување, во некои или сите околности, ќе биде забрането со меѓународното право;

(ѓ) При развивање или стекнување нови системи за оружје засновани на новите технологии во областа на смртоносни автономни оружја, физичка безбедност, соодветни нефизички заштитни мерки (вклучувајќи сајбер-безбедност од хакирање или лажирање податоци), ризик од стекнување од терористички групи и ризикот од пролиферација треба да се земе предвид;

(е) Проценките на ризикот и мерките за ублажување треба да бидат дел од циклусот на дизајнирање, развој, тестирање и распоредување на новите технологии во сите системи за оружје;

(ж) Треба да се земе предвид употребата на новите технологии во областа на смртоносните автономни системи на оружје за да се почитува усогласеноста со МХП и другите применливи меѓународни правни обврски;

(з) При креирањето на потенцијални политички мерки, новите технологии во областа на смртоносните автономни оружја системи не треба да се антропоморфизираат;

(ѕ) Дискусиите и сите потенцијални политички мерки преземени во контекст на CCW не треба да го попречуваат напредокот или пристапот до мирни употреби на интелигентни автономни технологии;

(и) CCW нуди соодветна рамка за справување со прашањето на новите технологии во областа на смртоносните автономни вооружени системи во контекст на целите и целите на Конвенцијата, која се обидува да постигне рамнотежа помеѓу воената неопходност и хуманитарните размислувања.

Овие и други различни закони за војна и закони за вооружени конфликти, или МХП (Меѓународни хуманитарни закони) служат како витален и секогаш ветувачки водич за разгледување што би можеле да се обидеме да направиме во врска со доаѓањето на автономните системи што се вооружени, без разлика дали се работи за клучен камен. дизајн или со методи после факт.

Некои велат дека треба целосно да ги забраниме оние автономни системи со вештачка интелигенција што можат да се вооружат. Така е, светот треба да ја спушти ногата и жестоко да бара автономните системи со вештачка интелигенција никогаш да не бидат вооружени. Ќе се воведе целосна забрана. Крај на приказната. Точка, точка.

Па, можеме искрено да посакаме забраната за автономни системи со смртоносно оружје да се почитува строго и послушно. Проблемот е што многу простор за мрдање е обврзан итар да се најде во која било од најискрените забрани. Како што велат, правилата се наменети да се прекршат. Може да се обложите дека онаму каде што работите се лабави, рифовите ќе ги откријат празнините и ќе се обидат да намигнуваат-намигнуваат околу правилата.

Еве неколку потенцијални дупки кои вреди да се разгледаат:

  • Тврдења за несмртоносни. Направете несмртоносни системи за автономни оружја (навидум во ред бидејќи е надвор од границата на забраната), кои потоа можете да ги префрлите за да станат смртоносни (ќе бидете надвор од забраната само во последен момент).
  • Тврдења само за автономен систем. Подржете ја забраната со тоа што нема да правите автономни системи фокусирани на смртоносно, во меѓувреме, правете толкав напредок во осмислувањето на секојдневни автономни системи кои (сеуште) не се вооружени, но кои можете за малку да ги унапредите за да бидете вооружени.
  • Тврдењата дека не се интегрирани како едно. Направете автономни системи што воопшто не се вооружени, а кога ќе дојде време, пигјбек оружје, така што можете да се обидете жестоко да аргументирате дека тие се два посебни елементи и затоа тврдите дека не спаѓаат во рубриката на се-во-едно автономен вооружен систем или негов братучед.
  • Тврди дека не е автономна. Направете систем за оружје што изгледа дека нема автономни капацитети. Оставете простор во овој веројатно неавтономен систем за отфрлање на автономијата базирана на вештачка интелигенција. Кога е потребно, приклучете ја автономијата и спремни сте да се тркалате (дотогаш, изгледа не ја прекршивте забраната).
  • други

Има многу други изразени тешкотии во обидот целосно да се забранат смртоносните автономни вооружени системи. Ќе опфатам уште неколку од нив.

Некои експерти тврдат дека забраната не е особено корисна и наместо тоа треба да има регулаторни одредби. Идејата е дека овие средства ќе бидат дозволени, но строго контролирани. Поставена е низа законски употреби, заедно со законски начини на таргетирање, законски видови способности, законска пропорционалност и слично.

Според нив, директната забрана е како да ја ставите главата во песок и да се преправате дека слонот во собата не постои. Сепак, оваа расправа ја зоврива крвта на оние кои се спротивставуваат со аргументот дека со воведување забрана, можете драматично да го намалите инаку искушението за спроведување на вакви системи. Секако, некои ќе се пофалат со забраната, но барем се надеваме дека повеќето нема. Потоа можете да го насочите вашето внимание на оние кои се фалат и да не морате да го раздвојувате вашето внимание на сите.

Тркалезно одат овие дебати.

Друга често забележана грижа е дека дури и ако добрите се придржуваат до забраната, лошите нема. Ова го става доброто во вошливо држење на телото. Лошите ќе имаат вакви автономни системи со оружје, а добрите нема. Штом ќе се откријат работите дека лошите ги имаат, ќе биде предоцна за добрите да ги достигнат. Накратко, единственото паметно нешто што треба да се направи е да се подготвите за борба против огнот со оган.

Постои и класична борба за одвраќање. Ако добрите се одлучат да направат вооружени автономни системи, ова може да се искористи за да се одвратат лошите од обидот да влезат во кавга. Или добрите ќе бидат подобро вооружени и на тој начин ќе ги одвратат лошите, или добрите ќе бидат подготвени кога лошите можеби ќе откријат дека тајно ги осмислувале тие системи цело време.

Контра на овие шалтери е дека со правење на вооружени автономни системи, вие водите трка во вооружување. И другата страна ќе бара да го има истото. Дури и ако тие не се технолошки способни да создадат такви системи одново, тие сега ќе можат да ги украдат плановите на „добрите“, да ги изведат рикверсите на високотехнолошките храброст или да имитираат што и да изгледаат како испробано и вистинито. начин да се заврши работата.

Аха, некои возвраќаат, сето ова може да доведе до намалување на конфликтите привидно меѓусебно. Ако страната А знае дека страната Б ги има тие оружја со смртоносни автономни системи, а страната Б знае дека страната А ги има, тие би можеле да седат цврсто и да не дојдат до удари. Ова ја има таа посебна аура на вибрации за заемно обезбедено уништување (MAD).

И така натаму.

Внимателно гледајќи го вториот пасус

Веќе опфативме многу работи овде и само досега го разгледавме првиот или почетниот став од Отвореното писмо (вкупно има четири параграфи).

Време е да го погледнете вториот пасус, еве:

  • „Како и со секоја нова технологија која нуди нови способности, појавата на напредни мобилни роботи нуди можност за злоупотреба. Недоверливите луѓе би можеле да ги искористат за да ги нападнат граѓанските права или да се закануваат, повредат или заплашуваат други. Една област од особена грижа е вооружувањето. Ние веруваме дека додавањето оружје на роботите кои се управувани од далечина или автономно, широко достапни за јавноста и способни за навигација до претходно недостапни локации каде што луѓето живеат и работат, покренува нови ризици од штета и сериозни етички прашања. Оружените апликации на овие ново-способни роботи, исто така, ќе и наштетат на довербата на јавноста во технологијата на начини што ќе ги оштетат огромните придобивки што тие ќе ги донесат за општеството. Поради овие причини, ние не го поддржуваме вооружувањето на нашите роботи за општа намена со напредна мобилност. За оние од нас кои зборуваа за ова прашање во минатото, и оние кои се ангажираа за прв пат, сега чувствуваме обновена итност во светлината на зголемената јавна загриженост во последните месеци предизвикана од мал број луѓе кои видно ги објавија своите импровизирани напори за вооружување на комерцијално достапни роботи“ (како што е објавено на интернет).

Откако ќе го прочитате вториот пасус, се надевам дека можете да видите како мојот претходен дискурс овде за оружјето со вештачка интелигенција доаѓа до израз.

Ајде да испитаме неколку дополнителни точки.

Една донекаде несогласување за одреден аспект на формулацијата што некои ги разбрануваше е дека наративот се чини дека нагласува дека „недоверливи луѓе“ би можеле да ги злоупотребат овие роботи со вештачка интелигенција. Да, навистина, лошите луѓе или злосторниците би можеле да доведат до гнасни дејства што ќе ги „злоупотребат“ роботите со вештачка интелигенција.

Во исто време, како што беше истакнато на почетокот на оваа дискусија, треба исто така да разјасниме дека самата вештачка интелигенција може да тргне наопаку, можеби поради вградени грешки или грешки и други такви компликации. Изразената загриженост е дека само нагласување на шансите за недоверливи луѓе е тоа што се чини дека ги игнорира другите неповолни можности. Иако повеќето компании и продавачи со вештачка интелигенција не сакаат да го признаат тоа, има многу проблеми со системите за вештачка интелигенција кои можат да ја намалат безбедноста и доверливоста на автономните системи. За моето покривање на безбедноста на вештачката интелигенција и потребата од ригорозни и докажливи заштитни мерки, видете врската овде, На пример.

Друга значајна точка што се појави меѓу оние што го испитуваа Отвореното писмо го повлекува опфатеното тврдење дека на крајот може да се намали јавната доверба поврзана со роботите со вештачка интелигенција.

Од една страна, ова е валидно тврдење. Ако роботите со вештачка интелигенција се користат за да вршат злобни наддавања, можете да се обложите дека јавноста ќе биде доста вознемирена. Кога јавноста ќе се запаре, можете да се обложите дека пратениците ќе се втурнат во обидот и ќе се обидат да донесат закони што ги ограничуваат роботите со вештачка интелигенција и роботи со вештачка интелигенција. Ова за возврат може да ја осакати индустријата за роботика со вештачка интелигенција доколку законите се сеопфатни и ги затворат напорите кои вклучуваат придобивки од роботската вештачка интелигенција. Во извесна смисла, бебето може да се исфрли со водата за капење (стар израз, веројатно заслужува да биде пензиониран).

Очигледното прашање што се поставува исто така е дали ова тврдење за спречување на намалување на довербата на јавноста за роботите со вештачка интелигенција е донекаде себично кредо или дали е за доброто на сите нас (може и двајцата?).

Ти одлучи.

Сега доаѓаме до особено месен дел од Отвореното писмо:

  • „Ние ветуваме дека нема да ги вооружуваме нашите роботи за општа намена со напредна мобилност или софтверот што го развиваме што овозможува напредна роботика и нема да поддржуваме други да го прават тоа. Кога е можно, внимателно ќе ги прегледаме апликациите наменети на нашите клиенти за да избегнеме потенцијално вооружување. Ние, исто така, ветуваме дека ќе го истражиме развојот на технолошки карактеристики кои би можеле да ги ублажат или намалат овие ризици. Да бидеме јасни, ние не се расправаме со постоечките технологии што нациите и нивните владини агенции ги користат за да се одбранат и да ги почитуваат своите закони“ (како што е објавено на интернет).

Можеме да го отпакуваме ова.

Седнете и подгответе се соодветно.

Дали сте подготвени за некоја огнена поларизација?

На поволна страна, некои гласно најавуваат дека овие производители на роботи со вештачка интелигенција ќе направат такво ветување. Се чини дека овие производители на роботи за среќа ќе се обидат да не ги вооружуваат нивните роботи за општа намена со „напредна мобилност“. Дополнително, во Отвореното писмо се вели дека нема да ги поддржат другите што го прават тоа.

Критичарите се прашуваат дали се случува некоја паметна зборовар.

На пример, каде започнува и завршува „напредната мобилност“? Ако производителот на роботи осмислува a едноставна- Роботот за мобилност со вештачка интелигенција наместо напреден (што е недефиниран дел од технички жаргон), дали тоа се исклучува од опсегот на она што ќе не да биде вооружен? Така, очигледно, во ред е да се вооружуваат роботите со вештачка интелигенција со едноставна подвижност, се додека тие не се т.н. Напредно.

Истото важи и за фразирањето на роботите за општа намена. Ако робот со вештачка интелигенција е дизајниран специјално за вооружување и затоа не е, ќе речеме а општа намена робот, дали тоа станува остварливо исклучување од опсегот?

Може да се препирате со овие препирки и жестоко да се расправате дека ова е само Отворено писмо, а не правен документ од педесет страници што го објаснува секој агол и пукнатина.

Ова нè доведува до навидум помакро-ниво неволја изразена од некои. Во суштина, што означува „залог“?

Некои прашуваат, каде е говедското месо?

Компанија која дава вакво ветување навидум го прави тоа без никаков вистински удел во играта. Ако највисоката компанија на која било фирма што се пријавила за оваа залог одлучи повеќе да не го почитува залогот, што ќе се случи со таа фирма? Дали извршните директори ќе добијат резиме конзервирана? Дали компанијата ќе се затвори и обилно ќе се извини што го прекршила ветувањето? И така натаму.

Колку што може да се заклучи, нема посебна казна или казна за какво било прекршување на залогата.

Може да тврдите дека постои можност за оштетување на репутацијата. Фирмата која дава залог може да се најде на пазарот затоа што дала залог што повеќе не го почитувала. Се разбира, ова претпоставува и дека луѓето ќе се сетат дека залогот е направен. Исто така, се претпоставува дека прекршувањето на залогата некако ќе биде откриено (изгледа дека е малку веројатно дека фирмата ќе каже на сите ако го стори тоа). Прекршителот на ветувањето ќе мора да биде повикан, а сепак таквото прашање може да стане обична врева во тековното цунами од вести за производителите на роботика со вештачка интелигенција.

Размислете за друг агол што се појави.

Фирмата за залог ја купува некоја поголема фирма. Поголемата фирма одлучува да започне со претворање на роботите за општа намена со напредна мобилност во верзии со оружје со вештачка интелигенција.

Дали е ова прекршување на залогот?

Поголемата фирма може да инсистира дека тоа не е прекршување бидејќи тие (поголемата фирма) никогаш не го дале залогот. Во меѓувреме, безопасните роботи со вештачка интелигенција што помалата фирма ги состави и осмисли, правејќи го тоа со навидум најалтруистички намери, речиси преку ноќ се преправаат во оружје.

На некој начин го поткопува ветувањето, иако може да кажете дека помалата фирма не знаела дека тоа еден ден ќе се случи. Тие беа искрени во својата желба. Тоа беше надвор од нивна контрола за тоа што се одлучи да направи поголемата фирма за купување.

Некои прашуваат и дали има некаква законска одговорност во ова.

Фирмата за залог одлучува по неколку месеци дека нема да го исполни залогот. Имаа промена на срцето. Може ли фирмата да биде тужена дека се откажала од залогот што го направила? Кој би тужел? Која би била основата за тужбата? Се појавуваат низа правни прашања. Како што велат, може речиси секого да тужите, но дали ќе победите е сосема друга работа.

Размислете за ова на друг начин. Компанија за залог добива можност да направи навистина голема зделка за да продаде цел куп свои роботи за општа намена со напредна мобилност на огромна компанија која е подготвена да плати преку нос за да ги добие роботите. Тоа е една од оние зделки за купување што се случуваат еднаш во животот.

Што треба да направи компанијата за роботика со вештачка интелигенција?

Ако фирмата за вештачка роботика за вештачка интелигенција се тргува јавно, тие речиси сигурно ќе имаат за цел да ја направат продажбата (истото може да се каже и за приватна фирма, иако не баш така). Замислете дека фирмата за залог е загрижена дека купувачот може да се обиде да ги вооружи роботите, иако да речеме дека нема таква дискусија на маса. Само се шпекулира дека купувачот би можел да го стори тоа.

Соодветно на тоа, фирмата за залог става во нивната лиценца дека роботите не треба да се вооружуваат. Купувачот се воздржува од овој јазик и се оддалечува од купувањето.

Од колкав профит само се оддалечила фирмата за роботика со вештачка интелигенција?

Дали постои момент во кој профитот од раката го надминува вклучувањето на барањето за ограничување на лиценцирањето (или, можеби законски формулација на ограничувањето за да се овозможи простор за движење и сепак да се оствари договорот)? Мислам дека можете да ја видите дилемата што е вклучена. Тони вакви сценарија лесно се смислуваат. Прашањето е дали овој залог ќе има заби. Ако е така, какви заби?

Накратко, како што беше споменато на почетокот на оваа дискусија, некои се засилени дека се дава ваков вид залог, додека други заземаат помрачно мислење за тоа дали залогот ќе држи вода.

Продолжуваме понатаму.

Добивање залог Одење

Четвртиот и последен пасус од Отвореното писмо го вели ова:

  • „Разбираме дека нашата посветеност сама по себе не е доволна за целосно справување со овие ризици, и затоа ги повикуваме креаторите на политиката да работат со нас за да промовираме безбедно користење на овие роботи и да ја забраниме нивната злоупотреба. Исто така, ја повикуваме секоја организација, развивач, истражувач и корисник во заедницата за роботика да даде слични ветувања дека нема да градат, овластуваат, поддржуваат или овозможуваат прикачување на оружје за такви роботи. Убедени сме дека придобивките за човештвото од овие технологии силно го надминуваат ризикот од злоупотреба и возбудени сме за светлата иднина во која луѓето и роботите работат рамо до рамо за да се справат со некои од предизвиците во светот“ (како што е објавено на интернет).

Овој последен дел од Отвореното писмо има неколку дополнителни елементи кои предизвикаа гнев.

Повикувањето на креаторите на политики може да биде добро советувано или лошо советувано, тврдат некои. Може да добиете креатори на политики кои не се упатени во овие работи, а потоа ќе ги направат класичните избрзани до суди и ќе изработат закони и прописи што го узурпираат напредокот на роботите со вештачка интелигенција. Според претходно наведената точка, можеби иновацијата што го турка напред роботскиот напредок на вештачката интелигенција ќе биде нарушена или газена.

Подобро бидете сигурни дека знаете што барате, велат критичарите.

Се разбира, контра-аргументот е дека наративот јасно кажува дека креаторите на политиката треба да соработуваат со фирми за роботика за вештачка интелигенција за да сфатат како веројатно разумно да донесат такви закони и прописи. Спротивно на контра-аргументот е дека на креаторите на политиката може да се гледа како на креаторите на роботиката на вештачката интелигенција, доколку тие се грижат за нивните каприци. Спротивно на контра-аргументот е дека природно е неопходно да се работи со оние кои знаат за технологијата, или во спротивно исходот ќе биде потенцијално лош. итн.

Веројатно, на некои од нив им се јави металоиди поради линијата која ги повикува сите да дадат слични ветувања како да не приложување оружје за роботи за општа намена со напредна мобилност. Клучниот збор таму е зборот приложување. Ако некој прави робот со вештачка интелигенција кој вклучува или беспрекорно вградува оружје, се чини дека тоа ја заобиколува формулацијата на приложување нешто. Можете да го видите сега, некој жестоко тврди дека оружјето не е прикачено, тоа е целосно дел од роботот со вештачка интелигенција. Преболете го тоа, извикуваат тие, ние не сме во опсегот на тој залог, а тие дури можеа и инаку да кажат дека се.

Ова покренува уште една жалба за нелепливоста на залогот.

Може ли фирмата или некој што ќе одлучи да го даде ова ветување да се изјасни како необврзан во секое време дека сака да го стори тоа и од која било причина што го посакува?

Очигледно така.

Наоколу многу се препукуваат за давање ветувања и каква влечна сила имаат тие.

Заклучок

Да, може да се каже, овие компании кои се обидуваат да ја направат вистинската работа добиваат тапани затоа што се обидуваат да ја направат вистинската работа.

Што дојде од нашиот свет?

На секој што ќе даде такво ветување треба да му се даде корист од сомнежот, може страсно да го одржите. Тие излегуваат во јавната сфера за да дадат храбар и витален придонес. Ако почнеме да ги оцрнуваме поради тоа, тоа сигурно ќе ги влоши работите. Никој нема да сака да даде таков залог. Фирмите и другите нема ни да се обидат. Тие ќе се кријат и нема да го предупредат општеството во што опасно може да се претворат тие мили танцувачки роботи.

Скептиците прогласуваат дека начинот да се разуми општеството повлекува други дејства, како што е отфрлање на фантастичниот чин на прикажување на веселите танцувачки роботи со вештачка интелигенција. Или барем направете го тоа поизбалансиран чин. На пример, наместо само да ги имитирате саканите кучиња лојални на домашни миленици, илустрирајте како танцувачките роботи можат да бидат повеќе слични на диви ослободени лути волци кои можат да ги растргнат луѓето на парчиња со целосно двоумење.

Тоа ќе привлече повеќе внимание од ветувањата, молат тие.

Ветувањата несомнено можат да бидат прилично загатка.

Како што Махатма Ганди елоквентно изјави: „Без разлика колку е експлицитно ветувањето, луѓето ќе го свртат и извртуваат текстот за да одговараат на нивната сопствена цел“.

Можеби за да заклучиме овде на една возбудлива нота, Томас Џеферсон го рече ова за ветувањата: „Ние взаемно си ги ветуваме еден на друг нашите животи, нашите богатства и нашата света чест“.

Кога станува збор за роботите со вештачка интелигенција, нивната автономија, нивното вооружување и слично, сите ние на крајот ќе бидеме заедно во ова. Нашето взаемно ветување треба барем да биде дека ќе ги задржиме овие работи во првите редови, ќе се стремиме да најдеме начини да се справиме со овие достигнувања и некако да го најдеме патот кон обезбедување на нашата чест, нашата среќа и нашите животи.

Можеме ли да се заложиме за тоа?

Се надевам.

Извор: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- роботи-креатори-велат-ќе-избегнат-аи-вооружување/