Лекции за етика и автономни системи за вештачка интелигенција извлечени од тој неодамнешен лет на Alaska Airlines каде што пилотот и копилотот не се согласуваа пред да полетаат и нагло избраа такси да се вратат до терминалот и да тргнат по одделни патишта

Авиокомпаниите се доста во вестите во последно време.

Ние сме во летна криза на летови. Уморните и фрустрирани патници се соочуваат со секакви нарушувања на летовите и пречки во распоредот на авиокомпаниите. Летовите се откажуваат неочекувано. Летовите се одложени. Патниците испаруваат. За жал, има многу случаи на патници кои дозволуваат овие вознемиреност да избувнат, а видовме страшно премногу вирални видеа од конфронтации меѓу глава и понекогаш со тупаници.

Поретко дознаваме за спорови меѓу пилотот и копилотот што може да настанат додека се во пилотската кабина.

Тоа е прилично изненадување.

Навистина, природно сме изненадени кога мислиме дека пилотот и копилотот би имале каков било привид на сериозно несогласување во која било фаза од летот. Ако несогласувањето се однесува на тоа која марка кафе е најдобра, нашата претпоставка е дека тоа нема да навлезе во работниот напор што подразбира летање на авионот. Двајцата едноставно би го отфрлиле недостатокот од очи во очи на тема наизглед неважна за летот. Нивното професионално однесување и долгогодишната обука на пилоти ќе започнат и тие ќе го насочат својот фокус назад кон деталите за летот.

Сепак, размислете кога А професионално несогласување интервенира.

Накратко ќе споделам со вас една вест нашироко објавена за неодамнешниот пример на нешто што се случило за време на лет во САД, а се однесува на наводно професионално несогласување во пилотската кабина.

Ова главно е цитирано овде за да можеме да истражиме поврзана тема која е од голема важност за појавата на вештачката интелигенција (ВИ). Гледате, може да има форма на професионално несогласување не само меѓу луѓето во несогласување човек-човек, туку може да имаме и нешто слично да се случи во услови на усвојување на вештачка интелигенција и професионални несогласувања човек наспроти ВИ . Се појавуваат секакви размислувања за етика на вештачката интелигенција. За моето опширно и тековно покривање на прашањата за етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именува неколку.

Подгответе се за фасцинантна приказна.

Како што неодамна беше објавено во вестите, случајот на „професионално несогласување“ очигледно се појавил за време на летот на Alaska Airline што одел од Вашингтон до Сан Франциско. Според извештаите на вестите, летот се оддалечил од капијата и чекал на асфалтот за дозвола за такси и лет. Невремето беше во тек и доведе до доцнење на летот од повеќе од час и половина. Излегува дека авионот на крајот се свртел и се упатил назад кон капијата, за што некои од патниците вообичаено претпоставувале дека е едноставно безбедносна мерка на претпазливост поврзана со бура.

Според различни твитови, се чини дека пилотот и копилотот имале некаков вид на недоразбирање додека биле таму во пилотската кабина и некако дошле до заклучок дека најпретпазливиот пристап би бил да го исчистат летот и да се вратат на терминалот. . Твитовите сугерираа дека капетанот и првиот офицер очигледно не можеле да се сложуваат еден со друг. Авиокомпанијата подоцна издаде соопштение дека ситуацијата е несреќна (ситуацијата не беше експлицитно наведена или објаснета сама по себе), двајцата офицери на летот беа оценети од раководството и беа оценети како способни да летаат, екипажот беше заменет, а летот навистина заврши а подоцна стигна до Сан Франциско.

Во една смисла, ако всушност пилотот и копилотот имале професионално несогласување, како на пример дали авионот е соодветно подготвен за лет или дали ризикот од прелетување низ бура е во соодветен безбедносен опсег, тие патници треба да бидат ослободени и благодарен што авионот беше вратен на портата. Подобро да се биде безбеден отколку да се жалам. Дополнително доцнење вреди за претпоставеното намалување на ризиците поврзани со сметано тешко или неповолно патување со летање.

Некои луѓе би можеле да бидат изненадени што може да дојде до такво професионално несогласување.

Можеби имаме лажен впечаток дека сè што се случува во кокпитот е целосно прецизно и добро напишано. Сите форми на човечка дискреција навидум се исфрлени од процесот. Врз основа на точни и темелно пресметани карти, летот или е во ред да продолжи или не е. Не може да има никакво несогласување кога се мисли дека целиот комплет и кабина се засноваат на непобитни калкулации на факти и бројки.

Тоа не е целосната вистина на работата. Секако, има мноштво протоколи и секакви проверки и рамнотежи, но ова не ја истиснува целата трошка човечко расудување. Пилотите и копилотите сè уште имаат човечко расудување. За среќа, оваа човечка проценка е усовршена со години летање. Шансите се дека пилотот и копилотот во комерцијален патнички авион имаат големо искуство во летање и лесно го користат нивното долгогодишно длабинско расудување и расудување поврзано со престојот во контролите на летот.

Со оглед на забележливата улога на човечкото расудување, логично би можеле да предвидиме дека пилотот и копилотот понекогаш ќе имаат професионални несогласувања. Поголемиот дел од времето веројатно има многу малку такво несогласување. Пилотот и копилотот за секојдневните летови веројатно ќе бидат добро усогласени со доминацијата на времето. Само кога сценариото за летање би можело да излезе надвор од конвенционалните граници, ќе очекуваме да се појави потензично триење.

Ако има силна разлика во мислењата меѓу двете, би се осмелил да кажам дека сакаме да го решат тоа.

Замислете ситуација во која пилотот силно сака да продолжи, но копилотот сфаќа дека ризиците се превисоки. Самото тоа што копилотот му се потковува на пилотот би изгледало непожелно. Копилотот е проверка и рамнотежа на она што пилотот можеби размислува да го направи. За оние кои сакаат копилотот да замолчи и да постапува само безумно за што и да нареди пилотот, добро, тоа не е големо уверување. Копилотот не е едноставно резервен „пилот“ кој влегува на сликата само кога пилотот е целосно онеспособен. Тоа е погрешно разбирање за вредноста да се има пилот и копилот во пилотската кабина.

Постои и другиот агол на ова.

Размислете за случајот на пилот кој не верува дека летот треба да продолжи, а во меѓувреме копилотот е гарантен за станување во воздух. Што тогаш? Според очекуваната хиерархија, пилотот би требало конвенционално да преовладува над копилотот. Назначената улога да биде главен одговорен го прави пилотот поголем од она што инаку е донекаде еднакво. Вообичаено, пилотот има повеќе зачини за целокупното летање од копилотот и затоа копилотот хиерархиски би требало да се одложи според желбите на пилотот (кога е во разум).

Во секој случај, мислам дека сите можеме да се согласиме дека да се одлучиме да не летаме е сигурно помалку ризичен избор отколку да се одлучиме да летаме. Штом авионот е во воздух, нивото на ризик станува огромно во споредба со тоа што се наоѓа на која било обична стабилна земја. Вообичаен комерцијален лет со кој едноставно се враќа такси до терминалот без да се качи во воздух, ќе биде прилично пријателска резолуција за секоја жестока остра дебата за одење во лет.

Ајде да ја префрлиме брзината и да ја искористиме оваа лута вест за сосема поинаква, но поврзана цел.

Постепено имаме меѓу нас распространетост на автономни системи базирани на вештачка интелигенција. Понекогаш вештачката интелигенција го води шоуто, како да е. Вештачката интелигенција прави сè од А до Ш, и ова може да го сфатиме како вештачка интелигенција која е целосно автономна или речиси така. Во други случаи, можеме да имаме вештачка интелигенција која е во интеракција со и до одреден степен е програмирана да се потпира на тоа да има човек-во-јамка.

Би сакал да се концентрирам на прашањето за автономен или полуавтономен систем базиран на вештачка интелигенција, кој од самиот почеток има човек во јамката. Вештачката интелигенција и човекот се намерно споени заедно и треба да работат во тандем еден со друг. Тие се групи во извршувањето на одредена задача. Самата вештачка интелигенција не треба да дејствува на задачата. Вештачката интелигенција мора да комуницира со назначениот човек-во-јамка.

Ја изнесувам оваа карактеризација за да се разликувам од ситуациите во кои човек-во-јамката се смета за изборен аспект. Во суштина, на вештачката интелигенција и се дава слобода. Ако вештачката интелигенција одлучи да го искористи човекот, нека биде така. Не постои услов вештачката интелигенција да ја допира основата или да работи рака под рака со назначениот човек. Анализите што ќе ги кажам секако се релевантни за тој вид опција аранжман на интеракција, но тоа не е она што конкретно го возам во оваа конкретна дискусија.

Добро, значи имаме некаква задача на која човек и вештачка интелигенција ќе работат заедно, неразделно еден од друг. Во апстрактна смисла, имаме човек кој седи на едното седиште и систем за вештачка интелигенција седи на другото придружно седиште. Ова го кажувам безобразно затоа што оваа дискусија не ја ограничуваме на робот, на пример, кој всушност можеби седи на седиште. Метафорично алудирам на идејата дека вештачката интелигенција некаде учествува во задачата, а исто така и човекот. Физички, нивното место на живеење не е особено витално за дискусијата.

Можеби не сте сигурни кога може да се појави таква околност.

Лесно-кикиритка.

Подоцна ќе разговарам за појавата на автономните возила и самоуправувачките автомобили. На одредени нивоа на автономија, вештачката интелигенција и човекот треба да работат заедно. Вештачката интелигенција можеби го вози автомобилот и бара човекот да ги преземе контролите за возење. Човекот може да го вози автомобилот и да ја активира вештачката интелигенција за да ги преземе контролите. Тие се менуваат на контролите за возење.

Дополнително, на некои дизајни ВИ е суштински активна цело време (или, освен ако не е исклучена), така што вештачката интелигенција е секогаш подготвена. Понатаму, вештачката интелигенција може директно да интервенира, дури и без човечко прашање, во зависност од ситуацијата што се развива. На пример, да претпоставиме дека човекот се чини дека заспал на воланот. Бидејќи човекот навидум не може да ја активира вештачката интелигенција (бидејќи лицето спие), вештачката интелигенција може да биде програмирана да ги преземе контролите од човекот.

Некои дизајни ги доведуваат вештачката интелигенција и луѓето во двоен пристап на возење. Вештачката интелигенција вози, а човекот вози. Или, ако сакате, човекот вози, а вештачката интелигенција исто така вози. Секој од нив го управува возилото. Ова го споредувам со оние специјално наместени автомобили што можеби сте ги користеле при обуката за возачи и во возилото имало два комплети контроли за возење, една за ученикот-возач и една за инструкторот за возење.

Тоа е само еден пример на поставка во која вештачката интелигенција и луѓето можат да работат заедно на некоја задача. Сите начини на можности постојат. Други видови на автономни возила може да бидат смислени на сличен начин, како што се авиони, дронови, потопни бродови, површински бродови, возови итн. Не треба да ги разгледуваме само поставките за возила и транспорт. Замислете го медицинскиот домен и хируршките зафати што ги вршат заеднички лекар и систем за вештачка интелигенција. Списокот е бесконечен.

Скоро ми доаѓа да се осврнам на класично бурната шега за човек и вештачка интелигенција кои заедно влегуваат во бар. Тоа е прилично смешно за оние кои се во вештачка интелигенција.

Сериозно, да се вратиме во фокусот на човекот и системот на вештачка интелигенција кои работат заедно на дадена задача. Прво, сакам да избегнам антропоморфизирање на вештачката интелигенција, што е нешто што ќе го нагласам насекаде. ВИ не е чувствителна. Ве молиме имајте го тоа на ум.

Еве нешто за размислување: Дали назначениот човек во јамката секогаш ќе биде во целосна согласност со вештачката интелигенција во ко-тимот?

За која било сложена задача, се чини малку веројатно дека човекот и вештачката интелигенција целосно и секогаш ќе бидат целосно во клуч и чекор. Човекот во некои прилики веројатно нема да се согласува со вештачката интелигенција. Можеме да ја пренесеме таа претпоставка до банката.

Би сакал да ја разгледате и оваа можеби изненадувачка можност: Дали вештачката интелигенција секогаш ќе биде во целосна согласност со одреден човек во јамката?

Повторно, за секоја сложена задача, би изгледало сосема замисливо дека вештачката интелигенција нема да биде во согласност со луѓето во некои прилики. Ако веќе сте наклонети кон идејата дека вештачката интелигенција секогаш мора да греши, додека луѓето мора да бидат секогаш во право, би било мудро да размислите повторно за тој избрзан заклучок. Замислете автомобил во кој човек и вештачка интелигенција заеднички го возат полуавтономното возило. Човекот се насочува кон ѕид од тули. Зошто? Не знаеме, можеби човекот е опиен или заспал, но знаеме дека удирањето во ѕид од тули не е добра идеја, сè друго е еднакво. Вештачката интелигенција може да ја открие претстојната несреќа и да се обиде да се оддалечи од претстојната бариера.

Како и да е, ќе имаме посебна можност вештачката интелигенција и човекот да не се согласуваат едни со други. Другиот начин да се каже истото е дека луѓето и вештачката интелигенција не се согласуваат едни со други. Забележете дека не сакам редоследот на ВИ-и-човек наспроти човек-и-ВИ да сугерира нешто за насоката или веродостојноста на несогласувањето.

Двајцата работници, еден човек и еден со вештачка интелигенција, не се согласуваат едни со други.

Можеме однапред да изјавиме дека секогаш кога ќе дојде до несогласување помеѓу дадена вештачка интелигенција и даден човек, ние претходно објавуваме дека човекот преовладува над вештачката интелигенција. Како што е кажано, мојот илустративен пример за автомобилот што се упатува во ѕид од тули, се чини дека нè одвраќа дека човекот секогаш нужно ќе биде во право.

Спротивно на тоа, би можеле да се одлучиме однапред да изјавиме дека секогаш кога ќе се појави несогласување, претходно ќе утврдиме дека вештачката интелигенција е во право, а човекот не е во право. И ова не е разумно генерализирана одредба. Замислете автомобил во кој вештачката интелигенција има некоја вградена софтверска грешка или бубачка, а вештачката интелигенција се обидува да го насочи возилото од патот и во канал. Претпоставувајќи дека сè друго е еднакво, човекот треба да биде способен да го надмине ова возење со вештачка интелигенција и да спречи возилото да слета во долот.

Ајде да направиме брзо резиме на ова:

  • Дали човек-во-јамката секогаш ќе биде во целосна согласност со вештачката интелигенција? Одговор: Бр
  • Дали вештачката интелигенција секогаш ќе биде целосно во согласност со човек-во-јамката? Одговор: Не.
  • Дали човек-во-јамката секогаш ќе биде во право во споредба со вештачката интелигенција? Одговор: Не е задолжително.
  • Дали вештачката интелигенција секогаш ќе биде во право во споредба со човекот-во-јамката? Одговор: Не мора.

Сигурно можете да ја поставите вештачката интелигенција да се смета стандардно како „погрешна“ или послаба страна и затоа секогаш се одложувате на човекот секогаш кога ќе се појави несогласување. Исто така, можете да ја поставите вештачката интелигенција да претпоставува дека вештачката интелигенција се смета за „правилна“ секогаш кога човек не се согласува со вештачката интелигенција. Сакам да појаснам дека тоа можеме програмски да го направиме ако сакаме да го сториме тоа. Сепак, тврдам дека генерално, ова не секогаш ќе биде така. Сигурно има поставки во кои однапред не знаеме дали вештачката интелигенција е „во право“ или човекот е „во право“ во однос на изборот на едното или другото за несогласување поврзано со дадена задача.

Те доведов до едно многу важно и многу комплицирано прашање.

Што треба да правиме кога ќе дојде до професионално несогласување помеѓу човекот-во-јамката и вештачката интелигенција (или, еквивалентно, ова можеме да го изразиме како меѓу вештачката интелигенција и човекот-во-јамката)?

Не обидувајте се да го избегнете прашањето.

Некои би можеле да тврдат дека тоа никогаш нема да се случи, но како што кажав во мојот пример за автомобилот, тоа сигурно може да се случи. Некои би можеле да тврдат дека човекот е очигледно супериорен и дека мора да биде победник на какво било несогласување. Мојот пример за автомобилот и ѕидот од тули го соборува тоа. Постојат приврзаници на вештачка интелигенција кои би можеле да инсистираат дека вештачката интелигенција мора да биде победник, поради навидум надминување на човечките емоции и бесмисленото размислување од страна на оние луѓе со нејасно размислување. Уште еднаш, мојот друг пример со кој автомобилот се упатува во каналот го поткопува тоа тврдење.

Во реалниот свет, вештачката интелигенција и луѓето нема да се согласуваат, дури и кога двајцата намерно се доведени во тимска ситуација за да извршат заеднички преземена задача. Тоа ќе се случи. Не можеме да ги ставиме главите во песок и да се преправаме дека нема да се случи.

Видовме дека луѓето кои го пилотираа авионот очигледно дошле до несогласување. За среќа, тие се согласија да не се согласуваат, така изгледа. Тие го вратија авионот на терминалот. Тие најдоа начин да се справат со несогласувањето. Решението за нивното несогласување успеало добро, во споредба со тоа дали можеби тие биле тупаници во пилотската кабина или можеби полетале во воздух и продолжиле да се борбени едни со други. Тоа е тажно сценарио кое е неодржливо, и можеме да бидеме благодарни што не се случи.

Дозволете ми да ја дадам мојата листа на различни начини на кои може да се решат несогласувањата со вештачката интелигенција и човекот во јамката (или, човек во јамката и вештачката интелигенција):

  • ВИ и здружените луѓе ги решаваат работите (пријателски или не)
  • Човекот преовладува над вештачката интелигенција, стандардно
  • ВИ преовладува над човекот, стандардно
  • Стандардно преовладува некоја друга однапред одредена фиксна резолуција
  • Човекот од трета страна е вклучен и нивното укажување преовладува над страните
  • Вештачката интелигенција од трета страна е вклучена и нејзината ознака преовладува над страните
  • Човекот од трета страна го заменува постоечкиот човек, работите продолжуваат одново
  • Вештачката интелигенција од трета страна ја заменува постојната вештачка интелигенција, работите продолжуваат одново
  • Човек од трета страна ја заменува постоечката вештачка интелигенција, работите продолжуваат одново (сега човек на човек)
  • Вештачката интелигенција од трета страна го заменува постоечкиот човек, работите продолжуваат одново (сега вештачка интелигенција-на-ВИ)
  • други

Тие се изобилно достојни да се отпакуваат.

Пред да навлеземе во повеќе месо и компири за дивите и волнените размислувања кои се во основата како да се справиме со вештачката интелигенција и човечките несогласувања, ајде да изложиме некои дополнителни основи за длабоко суштински теми. Треба накратко да се нурнеме во етиката на вештачката интелигенција и особено доаѓањето на машинското учење (ML) и длабокото учење (DL).

Можеби сте нејасно свесни дека еден од најгласните гласови деновиве во полето на вештачката интелигенција, па дури и надвор од полето на вештачката интелигенција, се состои од галама за поголем привид на етичка вештачка интелигенција. Ајде да погледнеме што значи да се однесуваме на етика и етичка вештачка интелигенција. Згора на тоа, ќе истражиме што мислам кога зборувам за машинско учење и за длабоко учење.

Еден специфичен сегмент или дел од етиката на вештачката интелигенција што привлекува големо медиумско внимание се состои од вештачка интелигенција која покажува неповолни предрасуди и нееднаквости. Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во неетичката бездна (видете ја мојата анализа за таквите способности на врската овде).

Во еден момент, ќе споделам со вас некои сеопфатни принципи кои се во основата на етиката на вештачката интелигенција. Има многу вакви списоци кои лебдат овде и таму. Може да се каже дека сè уште не постои единствена листа на универзална привлечност и согласност. Тоа е несреќната вест. Добрата вест е дека барем има лесно достапни листи за етика на вештачката интелигенција и тие имаат тенденција да бидат доста слични. Сè што е кажано, ова сугерира дека со форма на разумна конвергенција го наоѓаме нашиот пат кон општо заедништво на она од што се состои етика на вештачката интелигенција.

Прво, ајде накратко да покриеме некои од севкупните правила за етичка вештачка интелигенција за да илустрираме што треба да биде од витално значење за секој што изработува, развива или користи ВИ.

На пример, како што е наведено од Ватикан во Рим повик за етика на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните идентификувани шест основни етички принципи за вештачка интелигенција:

  • Транспарентност: Во принцип, системите за вештачка интелигенција мора да бидат објаснети
  • Вклучување: Мора да се земат предвид потребите на сите луѓе за да може секој да има корист, а на сите поединци да им се понудат најдобри можни услови за да се изразат и да се развиваат.
  • Одговорност: Оние кои дизајнираат и применуваат употреба на вештачка интелигенција мора да продолжат со одговорност и транспарентност
  • Непристрасност: Не создавајте или дејствувајте според пристрасност, со што ќе ја зачувате правичноста и човечкото достоинство
  • Доверливост: Системите за вештачка интелигенција мора да бидат способни да работат сигурно
  • Безбедност и приватност: Системите за вештачка интелигенција мора да работат безбедно и да ја почитуваат приватноста на корисниците.

Како што е наведено од Министерството за одбрана на САД (DoD) во нивните Етички принципи за употреба на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните шест основни етички принципи за вештачка интелигенција:

  • Одговорен: Персоналот на Дод ќе има соодветни нивоа на проценка и грижа додека останува одговорен за развојот, распоредувањето и користењето на способностите на вештачката интелигенција.
  • Правично: Одделот ќе преземе намерни чекори за да се минимизира ненамерната пристрасност во способностите на вештачката интелигенција.
  • Може да се следи: Способностите за вештачка интелигенција на Одделот ќе бидат развиени и распоредени така што релевантниот персонал ќе поседува соодветно разбирање за технологијата, развојните процеси и оперативните методи применливи за способностите на вештачката интелигенција, вклучувајќи транспарентни методологии за ревизија, извори на податоци и процедура за дизајнирање и документација.
  • сигурен: Способностите за вештачка интелигенција на Одделот ќе имаат експлицитна, добро дефинирана употреба, а безбедноста, безбедноста и ефективноста на таквите способности ќе бидат предмет на тестирање и уверување во рамките на тие дефинирани употреби во текот на целиот нивен животен циклус.
  • Управувачки: Одделот ќе дизајнира и инженери способности за вештачка интелигенција за да ги исполни нивните предвидени функции, истовремено поседувајќи способност за откривање и избегнување несакани последици, како и можност за исклучување или деактивирање на распоредените системи кои покажуваат ненамерно однесување.

Дискутирав и за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички начела за вештачка интелигенција во трудот со наслов „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто сосема опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е генерално да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата во кодирањето со вештачка интелигенција што треба да биде вистинската гума што одговара на патот.

Етичките принципи на вештачка интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичката вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Како што беше претходно наведено, потребно е едно село за да се смисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките правила на вештачката интелигенција.

Ајде, исто така, да се погрижиме дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителен ВИ, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Ајде да ги задржиме работите поприземни и да ја разгледаме денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Да се ​​вратиме на нашиот фокус на несогласувањата помеѓу вештачката интелигенција и човекот.

Претходно посочив дека ова се некои од стратегиите за решавање на несогласувањата:

  • ВИ и здружените луѓе ги решаваат работите (пријателски или не)
  • Човекот преовладува над вештачката интелигенција, стандардно
  • ВИ преовладува над човекот, стандардно
  • Стандардно преовладува некоја друга однапред одредена фиксна резолуција
  • Човекот од трета страна е вклучен и нивното укажување преовладува над страните
  • Вештачката интелигенција од трета страна е вклучена и нејзината ознака преовладува над страните
  • Човекот од трета страна го заменува постоечкиот човек, работите продолжуваат одново
  • Вештачката интелигенција од трета страна ја заменува постојната вештачка интелигенција, работите продолжуваат одново
  • Човек од трета страна ја заменува постоечката вештачка интелигенција, работите продолжуваат одново (сега човек на човек)
  • Вештачката интелигенција од трета страна го заменува постоечкиот човек, работите продолжуваат одново (сега вештачка интелигенција-на-ВИ)
  • други

Време е да ги отпакувате овие.

Прво, сметајте дека се работи за ова професионална несогласувања.

Професионалното несогласување е лабаво дефинирано како несогласување поврзано со задача поврзана со работата.

На пример, несогласувањето што ќе се појави помеѓу пилотот и копилотот за тоа дали да се продолжи со лет што се соочува со бура може разумно да се означи како професионално несогласување. Спротивно на тоа, жестокото несогласување за која марка кафе се залага пилотот наспроти брендот што го претпочита копилотот лесно се категоризира како непрофесионално несогласување во овој конкретен контекст.

Се разбира, ако непрофесионалното несогласување се претвори во професионално несогласување, на крајот може да бидеме заинтересирани за непрофесионалното несогласување како претпоставен извор или искра за професионалниот. Замислете дека пилотот и копилотот жестоко се расправаат за тоа која марка кафе е најдобрата, што потоа за жал се прелева во специфични грижи за летот (игра на зборови!), како на пример дали да полета или не.

Второ, треба да ја имаме на ум големината на професионалното несогласување.

Можеби пилотот и копилотот или во благо несогласување околу продолжувањето на летањето. Тие не се скарани и само размислуваат за добрите и лошите страни дали да полетаат. Ова не е калибар или големина на професионално несогласување што вообичаено го разгледуваме овде. Работата е во тоа што професионалното несогласување може да биде минливо и двете страни срдечно или барем навреме да разрешат решение. Општо земено, фокусот на професионалните несогласувања во рамките на опсегот се оние кои се навидум нерешливи, а двете страни остануваат цврсто во несогласување.

Трето, обично мора да има нешто сериозно на линија за овие упатства да влезат во игра.

Да се ​​одлучите да летате или да не летате е децидна одлука за живот или смрт доколку летот е изложен на ризик поради бура или ако се смета дека авионот не е целосно подготвен за такво патување. Ова е сериозна работа. Сè уште можеме да ги примениме упатствата за помалку влијателни професионални несогласувања, иако тоа може да биде повеќе мачно отколку што вреди.

Во ред, нашите размислувања се дека:

  • Несогласувањето е главно професионално ориентирано отколку за нешто непрофесионално
  • Несогласувањето е од постојан карактер и не е само минливо или на друг начин лесно решено
  • Несогласувањето предвидува сериозни последици и обично има влијателен исход
  • Партиите се скарани и изгледаат нерешливи

Ајде сега подетално да го разгледаме секое од моите предложени упатства или пристапи во врска со тоа како да се справиме со ваквите професионални несогласувања.

ВИ и здружените луѓе ги решаваат работите (пријателски или не)

Списокот го започнувам со јасна можност дека вештачката интелигенција и човекот-во-јамката можат да го решат професионалното несогласување меѓу себе. Се чини дека можеби примерот на двајцата луѓе, пилотот и копилотот ја илустрираат ваквата околност. Тие некако решија да се вратат на терминалот и да тргнат по својот пат. Може да биде дека системот на вештачка интелигенција и човекот се способни да сфатат пристап за решавање што е генерално задоволителен за двете страни и на тој начин работата е задоволително завршена.

Човекот преовладува над вештачката интелигенција, стандардно

Кога ја поставуваме вештачката интелигенција, би можеле да програмираме правило кое вели дека човек-во-јамката секогаш ќе преовладува секогаш кога ќе се појави професионално несогласување. Ова би било експлицитно кодираниот стандард. Ние, исто така, би можеле да дозволиме некаква форма на прескокнување, за секој случај, иако постојното правило ќе биде дека човекот преовладува.

ВИ преовладува над човекот, стандардно

Кога ја поставуваме вештачката интелигенција, би можеле да програмираме правило кое вели дека вештачката интелигенција секогаш ќе преовладува над човекот во јамката секогаш кога ќе се појави професионално несогласување. Ова е експлицитно кодиран стандардно. Може да дозволиме и некаква форма на прескокнување, за секој случај, иако постојното правило ќе биде дека вештачката интелигенција преовладува.

Стандардно преовладува некоја друга однапред одредена фиксна резолуција

Кога ја поставуваме вештачката интелигенција, би можеле да програмираме правило кое вели дека некоја друга однапред одредена фиксна резолуција ќе преовладува секогаш кога ќе се појави професионално несогласување со човекот-во-јамката. Човекот-во-јамка стандардно не преовладува. ВИ стандардно не преовладува. Има некоја друга претходно идентификувана резолуција. На пример, можеби постои фрлање паричка што ќе се користи за да се одлучи која од двете страни се смета за вистинскиот пат да се оди. Тоа очигледно би изгледало прилично произволно; па така, друг пример за пристап би бил дека специјализирано правило започнува со тоа што пресметува вредност врз основа на влезните податоци од двете страни и доаѓа до резултат како тај-прекинувач.

Човекот од трета страна е вклучен и нивното укажување преовладува над страните

По професионално несогласување, правило би можело да биде трето лице кое е човек да се повика и да се вклучи во околината за да донесе одлука за решавање на несогласувањето. Вештачката интелигенција е програмирана да се одложува на што и да одлучи трето лице. Човекот кој веќе е во човек во јамката е претходно упатен дека ако се појави таква ситуација, и тие треба да се одложат на трето лице. Како настрана, веројатно може да предвидите дека човекот-во-јамката може да има лутина поради пристапувањето кон што и да одлучи човекот од трето лице ако одлуката не се согласува со држењето на човекот-во-јамката.

Вештачката интелигенција од трета страна е вклучена и нејзината ознака преовладува над страните

По професионално несогласување, правило може да биде трето лице кое е различен систем на вештачка интелигенција да се повика и да се вклучи во поставката за да донесе одлука за решавање на несогласувањето. Оригиналната вештачка интелигенција е програмирана да се одложува на што и да одлучи вештачката интелигенција од трета страна. Човекот кој веќе е во „Човековниот во јамката“ претходно доби инструкции дека доколку се појави таква ситуација, и тие треба да се одложат на вештачката интелигенција од трета страна. Како настрана, веројатно може да предвидите дека човекот во јамката може да има анксиозност поради пристапувањето кон што и да одлучи вештачката интелигенција од трета страна ако одлуката не се согласува со држењето на човекот во јамката.

Човекот од трета страна го заменува постоечкиот човек, работите продолжуваат одново

По професионално несогласување, човек-во-јамката се заменува со трета страна која е човек и која отсега натаму станува човек-во-јамка. Човекот кој беше оригиналниот човек-во-јамка за задачата повеќе не се смета за дел од задачата што е при рака. Тоа е отворен аспект за тоа што инаку се случува со сега заменетиот човек-во-јамка, но ние велиме дека тие сигурно веќе немаат никаква тековна улога во работната задача.

Вештачката интелигенција од трета страна ја заменува постојната вештачка интелигенција, работите продолжуваат одново

По професионално несогласување, вештачката интелигенција се заменува со вештачка интелигенција од трета страна и таа станува вештачка интелигенција која отсега се користи за работната задача. Вештачката интелигенција која првично се користеше за задачата повеќе не се смета за дел од задачата што е на располагање. Тоа е отворен аспект за тоа што инаку се случува со сега заменетата вештачка интелигенција, но ние велиме дека со сигурност вештачката интелигенција повеќе нема никаква тековна улога во работната задача.

Човек од трета страна ја заменува постоечката вештачка интелигенција, работите продолжуваат одново (сега човек на човек)

По професионално несогласување, вештачката интелигенција се заменува со човек од трета страна, за кој таа личност сега станува сметана страна во тим што ќе се користи за работната задача. Вештачката интелигенција која првично се користеше за задачата повеќе не се смета за дел од задачата што е на располагање. Тоа е отворен аспект за тоа што инаку се случува со сега заменетата вештачка интелигенција, но ние велиме дека со сигурност вештачката интелигенција повеќе нема никаква тековна улога во работната задача. Накратко, ова сега станува двострана извршена задача од човек на човек.

Вештачката интелигенција од трета страна го заменува постоечкиот човек, работите продолжуваат одново (сега вештачка интелигенција-на-ВИ)

По професионално несогласување, човек-во-јамката се заменува со вештачка интелигенција од трета страна и оваа вештачка интелигенција отсега станува пополнување за претходниот човек-во-јамка. Човекот кој беше оригиналниот човек-во-јамка за задачата повеќе не се смета за дел од задачата што е при рака. Тоа е отворен аспект за тоа што инаку се случува со сега заменетиот човек-во-јамка, но ние велиме дека тие сигурно веќе немаат никаква тековна улога во работната задача. Накратко, ова сега станува двострана AI-to-AI за извршување на задачата.

други

Може да се смислат други варијации за да се справат со професионално несогласување, но овде опфативме некои од клучните точки.

Како да одлучиме кој од тие пристапи ќе биде вистинскиот за дадена ситуација?

За да се направи таков избор има широк спектар на прашања. Постојат технолошки размислувања. Постојат деловни размислувања. Постојат правни и етички размислувања.

До одреден степен, затоа етика и етичка вештачка интелигенција е толку клучна тема. Прописите на етиката на вештачката интелигенција нè натераат да останеме будни. Технолозите со вештачка интелигенција понекогаш можат да бидат преокупирани со технологијата, особено со оптимизацијата на високата технологија. Тие не мора да ги земаат предвид поголемите општествени последици. Да се ​​има начин на размислување за етика на вештачката интелигенција и да се прави тоа интегрално во развојот и спроведувањето на вештачката интелигенција е од витално значење за производство на соодветна вештачка интелигенција, вклучувајќи (можеби изненадувачки или иронично) проценката за тоа како етиката на вештачката интелигенција се прифаќа од фирмите.

Покрај користењето на правилата за етика на вештачката интелигенција општо, постои соодветно прашање дали треба да имаме закони за регулирање на различните употреби на вештачката интелигенција. На федерално, државно и локално ниво се шират нови закони кои се однесуваат на опсегот и природата на тоа како треба да се смисли вештачката интелигенција. Напорот за изготвување и донесување такви закони е постепен. Етиката на вештачката интелигенција во најмала рака служи како запирање и речиси сигурно до одреден степен ќе биде директно инкорпорирана во тие нови закони.

Бидете свесни дека некои категорично тврдат дека не ни требаат нови закони кои покриваат вештачка интелигенција и дека нашите постоечки закони се доволни. Всушност, тие предупредуваат дека ако навистина донесеме некои од овие закони за вештачка интелигенција, ќе ја убиеме златната гуска со тоа што ќе го спречиме напредокот во вештачката интелигенција што нуди огромни општествени предности.

Во овој момент од оваа тешка дискусија, би се обложил дека сакате некои илустративни примери кои би можеле да ја покажат оваа тема. Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за решенијата за несогласување со вештачката интелигенција и луѓето, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските самоуправувачки автомобили се оние каде што вештачката интелигенција го вози автомобилот целосно самостојно и нема никаква човечка помош за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште нема вистински самоуправувачки автомобил на Ниво 5, а сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту колку време ќе биде потребно за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и несогласување со вештачка интелигенција наспроти човечки

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Се надевам дека тоа обезбедува доволна литанија на предупредувања за да биде основата на она што ќе го кажам.

За целосно автономни возила можеби нема да има никакви шанси за професионално несогласување помеѓу човекот и вештачката интелигенција поради можноста да не постои човек во циклус за почеток. Стремежот на многу од денешните производители на самоуправувачки автомобили е целосно да го отстранат човечкиот возач од задачата за возење. Возилото нема да содржи ни контроли за возење достапни за луѓе. Во тој случај, човечки возач, доколку е присутен, нема да може да учествува во возачката задача бидејќи нема пристап до какви било контроли за возење.

За некои целосно автономни возила, некои дизајни сè уште дозволуваат човекот да биде во круг, иако човекот воопшто не мора да биде достапен или да учествува во процесот на возење. Така, човек може да учествува во возењето, доколку лицето го сака тоа. Во ниту еден момент, вештачката интелигенција не се потпира на човекот за извршување на некоја од задачите за возење.

Во случај на полуавтономни возила, постои врска рака под рака помеѓу човечкиот возач и вештачката интелигенција. Човечкиот возач може целосно да ги преземе контролите за возење и суштински да ја спречи вештачката интелигенција да учествува во возењето. Ако човечкиот возач сака да ја врати вештачката интелигенција во возачката улога, може да го стори тоа, иако тоа понекогаш го принудува човекот да се откаже од контролите за возење.

Друга форма на полуавтономна операција би наложила човечкиот возач и вештачката интелигенција да работат заедно на тимски начин. Вештачката интелигенција вози, а човекот вози. Тие возат заедно. Вештачката интелигенција може да се префрли на човекот. Човекот може да се префрли на вештачката интелигенција.

Во одреден момент, системот за возење со вештачка интелигенција и човечкиот двигател во јамката може да стигнат до момент на „професионално несогласување“ во однос на задачата за возење.

За да се илустрира како некои од горенаведените правила за справување со професионално несогласување може да бидат предизвик за спроведување, земете го во предвид примерот на повикување на трето лице да влезе во проблемот и да понуди одлука за решавање на нерешениот проблем.

Да претпоставиме дека некој производител на автомобили или технолошка фирма за самоуправување договорила далечински човечки оператори да имаат пристап до контролите за возење на возилата во нивната флота. Човечкиот оператор седи во некоја далечна канцеларија или сличен амбиент. Преку компјутерски систем, тие можат да ја гледаат сцената на возење преку пристап до камерите и другите сензорски уреди натоварени на самоуправувачкиот автомобил. За нив ова е речиси како играње онлајн видео игра, иако, се разбира, реалните околности имаат потенцијално страшни последици.

Систем за вештачка интелигенција и човечки возач во автомобилот возат полуавтономно возило по долг автопат. Одеднаш, вештачката интелигенција сака да се фрли во ров. Човечкиот возач не сака да го прави ова. Двајцата се караат околу контролите за возење.

Како ќе се реши ова?

Можеби претходно можевме да воспоставиме дека човекот секогаш победува. Претпоставете иако одлучивме да не го правиме тоа.

Можевме претходно да воспоставиме дека вештачката интелигенција секогаш победува. Претпоставете дека решивме да не го правиме тоа. Сè на сè, ние не усвоивме ниту едно од тие правила, освен што решивме да дозволиме трето лице да интервенира и да реши професионално несогласување од каква било суштинска природа.

Во овој случај на употреба, вештачката интелигенција и човечкиот возач на воланот се борат за контролите за возење. Ова, да речеме, е пренесено на далечинскиот човечки оператор (нашиот човек од трета страна). Далечинскиот човечки оператор испитува што се случува и одлучува да се оддалечи од ровот, навидум избегнувајќи го она што вештачката интелигенција се обидуваше да го направи. Во исто време, да претпоставиме дека далечинскиот човечки оператор се насочува кон сообраќајот што доаѓа од спротивната страна, што можеби ниту вештачката интелигенција ниту човекот возач во автомобилот не сакаа да го направат.

Поентата е дека начинот на кој ова правило е имплементирано е дека третиот човечки оператор може целосно да ги отфрли и вештачката интелигенција и човекот-во-јамката. Дали ова ќе даде добар исход, сигурно не е сигурно.

Ќе го користам овој пример за да истакнам некои дополнителни сознанија за овие прашања.

Не можете да направите дрска претпоставка дека само затоа што едно од овие правила е ставено на место, исходот од решеното несогласување е нужно гарантиран добар исход. Можеби не е. Не постои правило кое може да се избере секогаш правилно.

Следно, некои од овие правила можеби нема да бидат остварливо применливи.

Размислете за примерот на далечинскиот човек кој интервенира кога вештачката интелигенција и човечкиот возач се караат околу контролите за возење. Можеби ќе бидат потребни многу секунди за далечинскиот човечки оператор да сфати што се случува. Дотогаш, возилото можеби веќе завршило во канал или имало некој друг неповолен исход. Исто така, да претпоставиме дека локацијата на возилото оневозможува далечински пристап, како на пример да биде на некое место каде што нема мрежно електронско поврзување. Или можеби мрежните карактеристики на возилото не работат во тој одреден момент.

Како што можете да видите, правилото може да изгледа неверојатно на хартија, иако ставањето на правилото во вистинска употреба може да биде многу тежок или многу шантен пристап. Погледнете го моето покривање со критички очи на далечинскиот управувач на автономни возила и самоуправувачки автомобили на врската овде.

Би сакал накратко да опфатам уште една поврзана тема што ќе ја обработам во поголема длабочина во претстојната анализа.

Една од зголемените грижи за автономните возила и самоуправувачките автомобили кои се полуавтономни е т.н. Синдром на топол компир.

Еве ја зделката.

Возачки систем со вештачка интелигенција и човек се возат заедно. Се појавува страшна ситуација. Вештачката интелигенција е програмирана да се откаже од задачата за возење и да ги предаде работите на човекот кога ќе се случи страшен момент. Ова изгледа можеби „разумно“ со тоа што се чини дека се повикуваме на правилото за човечкото суштество стандардниот „победник“ во секое потенцијално професионално несогласување.

Но, откажувањето од вештачката интелигенција може да биде за посериозни или подмолни цели. Може да биде дека производителот на автомобили или технолошката фирма за самоуправување не сака нивната вештачка интелигенција да се смета за „виновна“ кога ќе се случи сообраќајна несреќа. За навидум да избегне така да се закачи, вештачката интелигенција нагло ги предава контролите на човекот. Воила, човекот сега веројатно е целосно одговорен за возилото.

Основата е во тоа што да претпоставиме дека вештачката интелигенција го прави ова пренесување со да речеме уште една секунда до крајот пред да се случи несреќа.

Дали човекот навистина би имал слободно време да ја избегне несреќата?

Најверојатно не.

Да претпоставиме дека вештачката интелигенција го прави предавањето на неколку милисекунди или наносекунди што остануваат до крајот. Се осмелувам да кажам дека човекот има суштински нула шанса да направи нешто за да ја избегне несреќата.

Од перспектива на производителот на автомобили или на фирмата за самоуправувачки автомобили, тие можат да се обидат да се однесуваат како рацете да им се чисти кога ќе се случи таква сообраќајна несреќа. Автомобилот го управувал човек. Вештачката интелигенција не го возел автомобилот. Изгледа дека единствениот „логичен“ заклучок е дека човекот мора да биде виновен и дека вештачката интелигенција мора да биде целосно без вина.

Тоа е камен.

Ќе разговарам за ова подетално во претстојната колумна.

Заклучок

Ќе се појават професионални несогласувања.

Тешко е да се замисли некоја сложена задача која има две страни кои заедно ја извршуваат задачата и за која никогаш нема да се појават професионални несогласувања. Ова изгледа како земја на фантазии или барем голема реткост.

Денес, имаме многу, многу случаи на професионално несогласување од човек на човек, за кои на дневна основа се решаваат мирно и разумно на овој или оној начин. Всушност, ние често поставуваме ситуации намерно за да поттикнеме и да ги истакнеме професионалните несогласувања. Може да тврдите дека ова ја покажува познатата мудрост дека понекогаш две глави се подобри од една.

Како што вештачката интелигенција станува се поприсутна, ќе имаме многу двострани изведувачи на задачи од вештачка интелигенција на човек или од човек на ВИ и ќе има професионални несогласувања тоа ќе се случи. Мрзливиот пристап е секогаш да се одложува на човекот. Ова можеби не е најсоодветниот пристап. Вештачката интелигенција можеби е подобар избор. Или едно од другите горенаведени правила може да биде поздрав пристап.

Постои онаа мудречка линија која често се повторува дека сите ние генерално треба да можеме да се согласиме да не се согласуваме, иако кога станува збор за жица, понекогаш несогласувањето мора недвосмислено да се реши, инаку предметната работа ќе доведе до нераскажана катастрофа. Не можеме само да дозволиме несогласувањето да опадне на лозата. Времето може да биде од суштинско значење, а животите може да бидат во прашање.

Постои јасна потреба за некои претпазливи средства за решавање на несогласувањата, дури и ако не е нужно соодветно, вклучително и кога вештачката интелигенција и човекот-во-јамка не гледаат очи во очи или бајт до бајт.

Верувам дека нема да се согласите со тоа сосема прифатливо тврдење.

Извор: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- пилотот-и-копилотот-не-согласија-пред-полетувањето-и-нагло-избраа-такси-врати-на-терминал-и-одат-подвоени-прави/