Етика на вештачката интелигенција која вели дека вештачката интелигенција треба особено да се користи кога има многу човечки предрасуди

Луѓето треба да ги запознаат нивните ограничувања.

Можеби се сеќавате на слична позната реплика за познавањето на нашите ограничувања, како што жестоко ја изговори ликот Валканиот Хари во филмот од 1973 година со наслов Магнум Форс (според кажаните зборови на актерот Клинт Иствуд во неговата незаборавна улога како инспекторот Хари Калахан). Целокупната идеја е дека понекогаш имаме тенденција да ги занемариме нашите сопствени граници и соодветно да се внесуваме во топла вода. Без разлика дали поради храмот, егоцентричните или едноставно слепи за нашите сопствени способности, наредбата да бидеме свесни и да ги земаме експлицитно предвид нашите склоности и недостатоци е многу разумна и корисна.

Ајде да додадеме нов пресврт на советот на мудрец.

Вештачката интелигенција (ВИ) ги запозна своите ограничувања.

Што мислам со таа варијанта на почитуваната фраза?

Излегува дека првичната брзање да се користи модерната вештачка интелигенција како надежен решавач на проблемите во светот стана загадена и целосно заматена од сознанието дека денешната вештачка интелигенција навистина има некои прилично сериозни ограничувања. Отидовме од возбудливите наслови на AI за добро и се повеќе се најдовме заглавени во AI за лошо. Гледате, многу системи за вештачка интелигенција се развиени и на терен со секакви непријатни расни и полови предрасуди, и огромен број други такви ужасни нееднаквости.

За моето опширно и тековно покривање на етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Предрасудите што се откриваат во овие системи за вештачка интелигенција не се од типот „намерен“ што би му го припишувале на човечкото однесување. Го споменувам ова за да нагласам дека денешната вештачка интелигенција не е чувствителна. И покрај бурните наслови кои сугерираат поинаку, никаде не постои вештачка интелигенција што дури и се приближува до чувството. Згора на тоа, не знаеме како да ја внесеме вештачката интелигенција во заградата на чувството, плус никој не може со сигурност да каже дали некогаш ќе постигнеме чувство за вештачка интелигенција. Можеби некогаш ќе се случи, а можеби и не.

Значи, поентата ми е дека не можеме особено да му доделиме намера на видот на вештачка интелигенција што моментално ја поседуваме. Како што е кажано, можеме во изобилство да им доделиме намера на оние што изработуваат системи со вештачка интелигенција. Некои развивачи на вештачка интелигенција не се свесни за фактот дека смислиле систем на вештачка интелигенција што содржи непријатни и можеби нелегални предрасуди. Во меѓувреме, другите развивачи на вештачка интелигенција сфаќаат дека внесуваат предрасуди во нивните системи за вештачка интелигенција, потенцијално правејќи го тоа на намерен погрешен начин.

Во секој случај, исходот е сепак неприличен и веројатно незаконски.

Во тек се строги напори за објавување на принципите за етика на вештачката интелигенција кои ќе ги просветлат развивачите на вештачка интелигенција и ќе обезбедат соодветни насоки за избегнување на вметнување предрасуди во нивните системи за вештачка интелигенција. Ова ќе помогне на двапати. Прво, оние кои изработуваат вештачка интелигенција повеќе нема да имаат подготвен изговор дека едноставно не знаеле кои правила треба да се следат. Второ, оние што отстапуваат од условите за етичка вештачка интелигенција ќе бидат полесно фатени и прикажани како да го одбегнуваат она што биле предупредени да го прават и да не го прават.

Ајде да одвоиме малку време за накратко да разгледаме некои од клучните правила за етичка вештачка интелигенција за да илустрираме за што треба да размислуваат и ригорозно да размислуваат градителите на вештачка интелигенција од ставот за етика на ВИ.

Како што е наведено од Ватикан во Рим повик за етика на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните идентификувани шест основни етички принципи за вештачка интелигенција:

  • Транспарентност: Во принцип, системите за вештачка интелигенција мора да бидат објаснети
  • Вклучување: Мора да се земат предвид потребите на сите луѓе за да може секој да има корист, а на сите поединци да им се понудат најдобри можни услови за да се изразат и да се развиваат.
  • Одговорност: Оние кои дизајнираат и применуваат употреба на вештачка интелигенција мора да продолжат со одговорност и транспарентност
  • Непристрасност: Не создавајте или дејствувајте според пристрасност, со што ќе ја зачувате правичноста и човечкото достоинство
  • Доверливост: Системите за вештачка интелигенција мора да бидат способни да работат сигурно
  • Безбедност и приватност: Системите за вештачка интелигенција мора да работат безбедно и да ја почитуваат приватноста на корисниците.

Како што е наведено од Министерството за одбрана на САД (DoD) во нивните Етички принципи за употреба на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните шест основни етички принципи за вештачка интелигенција:

  • Одговорен: Персоналот на Дод ќе има соодветни нивоа на проценка и грижа додека останува одговорен за развојот, распоредувањето и користењето на способностите на вештачката интелигенција.
  • Правично: Одделот ќе преземе намерни чекори за да се минимизира ненамерната пристрасност во способностите на вештачката интелигенција.
  • Може да се следи: Способностите за вештачка интелигенција на Одделот ќе бидат развиени и распоредени така што релевантниот персонал ќе поседува соодветно разбирање за технологијата, развојните процеси и оперативните методи применливи за способностите на вештачката интелигенција, вклучително и со транспарентни методологии за ревизија, извори на податоци и процедура за дизајнирање и документација.
  • сигурен: Способностите за вештачка интелигенција на Одделот ќе имаат експлицитна, добро дефинирана употреба, а безбедноста, безбедноста и ефективноста на таквите способности ќе бидат предмет на тестирање и уверување во рамките на тие дефинирани употреби во текот на целиот нивен животен циклус.
  • Управувачки: Одделот ќе дизајнира и инженери способности за вештачка интелигенција за да ги исполни нивните предвидени функции, истовремено поседувајќи способност за откривање и избегнување несакани последици, како и можност за исклучување или деактивирање на распоредените системи кои покажуваат ненамерно однесување.

Дискутирав и за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички начела за вештачка интелигенција во трудот со наслов „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто целосно опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е воопшто да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата кога кодирањето на вештачката интелигенција мора да биде вистинската гума што одговара на патот.

Принципите за етика на вештачката интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичка вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Ве молиме имајте предвид дека е потребно едно село за да се смисли и да се спроведе вештачка интелигенција. За што целото село мора да внимава на етиката на вештачката интелигенција.

Како и да е, сега кога се најдов на табелата дека вештачката интелигенција може да содржи предрасуди, можеби сите можеме да се согласиме со овие два очигледни факти:

1. Луѓето можат да имаат многу непријатни предрасуди и можат да дејствуваат по нив

2. Вештачката интелигенција може да има бројни непријатни предрасуди и може да дејствува по тие предрасуди

Некако ми се мрази да ги ставам луѓето наспроти вештачката интелигенција во тој контекст, бидејќи тоа некако може да имплицира дека вештачката интелигенција има чувствителни капацитети на исто ниво со луѓето. Ова сигурно не е така. Ќе се вратам моментално на зголемената загриженост за антропоморфизирање на вештачката интелигенција малку подоцна во оваа дискусија.

Што е полошо, луѓето кои покажуваат непристрасни предрасуди или вештачката интелигенција која го прави тоа?

Се осмелувам да кажам дека прашањето поставува еден од оние гнасни избори. Тоа е пословичен помал од две зла, може да се тврди. Би сакале луѓето да не отелотворуваат непристрасни предрасуди. Понатаму, би сакале, дури и ако луѓето имаат непријатни предрасуди, тие да не дејствуваат по тие предрасуди. Истото може да се каже и за вештачката интелигенција. Би сакале вештачката интелигенција да не вградува неповолни предрасуди и дури и ако има такви внатрешно кодирани предрасуди, вештачката интелигенција барем да не дејствува по нив.

Желбите иако не мора да го водат светот (за мојата анализа на подемот и вознемирувачкиот изглед на т.н. Исполнување на желби со вештачка интелигенција од општеството во целина, види врската овде).

Океј, ние очигледно сакаме луѓето да ги знаат нивните ограничувања. Важно е да препознаете кога имате непријатни предрасуди. Има подеднаква важност во обидот да се спречат тие непристрасни предрасуди да се внесат во вашите постапки и одлуки. Бизнисите денес се обидуваат со сите видови пристапи за да ги спречат своите вработени да паднат во непријатни предрасуди страшни стапици. На вработените им се одржува специјализирана обука за тоа како да ја извршуваат својата работа на етички исправни начини. Процесите се обликуваат околу вработените за да ги предупредат кога се чини дека покажуваат неетички обичаи. И така натаму.

Друго средство за справување со луѓето и нивните неповолни предрасуди би било да се автоматизира работата базирана на луѓе. Да, едноставно отстранете го човекот од јамката. Не дозволувајте човек да извршува задача за донесување одлуки и веројатно веќе немате постојани грижи за човечкото однесување кон какви било непристрасни предрасуди. Не е вклучен човек и на тој начин проблемот со потенцијалните човечки предрасуди се чини дека е решен.

Ова го кажувам затоа што сме сведоци на постепена и масовна промена кон користење на вештачката интелигенција на начин на алгоритамско одлучување (ADM). Ако можете да замените човечки работник со вештачка интелигенција, шансите се дека ќе се појават многу придобивки. Како што веќе споменавме, повеќе нема да се грижите за човечките предрасуди на тој човечки работник (оној што повеќе не ја работи таа работа). Шансите се дека вештачката интелигенција ќе биде помалку скапа во целина во споредба со долгорочниот временски хоризонт. Вие ги отфрлате сите други различни тешкотии што се појавуваат делумно со човечките работници. итн.

Се чини дека предлогот што добива на сила е овој: Кога се обидувате да одлучите каде најдобро да ја поставите вештачката интелигенција, погледнете прво кон поставките кои веќе повлекуваат неповолни човечки предрасуди од страна на вашите работници и за кои тие предрасуди ги потценуваат или на друг начин претерано комплицираат одредени задачи за донесување одлуки.

Во крајна линија е дека би изгледало разумно да се соберат најмногу пари за вашите пари во однос на инвестирање во вештачка интелигенција со директно насочување кон високо изложени задачи за донесување одлуки на човекот кои тешко се контролираат од перспектива на непријатна инфузија на предрасуди. Отстранете ги човечките работници во таа улога. Заменете ги со вештачка интелигенција. Претпоставката е дека вештачката интелигенција нема да има такви непријатни предрасуди. Затоа, можете да ја јадете вашата торта и да ја јадете исто така, имено, да ги преземете задачите за одлучување и да го сторите тоа без етичкото и правното сениште на непристрасни предрасуди.

Кога ќе го напишете тоа, ROI (враќање на инвестицијата) веројатно ќе го направи усвојувањето на вештачката интелигенција бесмислен избор.

Еве како тоа обично оди надвор.

Погледнете низ вашата фирма и обидете се да ги идентификувате задачите за донесување одлуки кои влијаат на клиентите. Од тие задачи, кои од нив најверојатно ќе бидат несоодветно занишани ако работниците отелотворуваат непристрасни предрасуди? Ако веќе сте се обиделе да ги зауздите тие предрасуди, можеби сте дозволиле работите да стојат како што се. Од друга страна, ако предрасудите постојано се појавуваат и напорот за нивно отстранување е тежок, размислете да фрлите одредена релевантна вештачка интелигенција во таа улога. Не држете ги работниците во комбинација бидејќи тие може да ја надминат вештачката интелигенција или да ја турнат вештачката интелигенција веднаш назад во бездната на непријатните предрасуди. Исто така, проверете дали вештачката интелигенција може вешто да ја изврши задачата и дека доволно сте ги овековечиле аспектите на донесување одлуки потребни за извршување на работата.

Исплакнете и повторете.

Сфаќам дека тоа изгледа како јасна идеја, иако сфаќам дека има многу начини на кои замената на човечки работници со вештачка интелигенција може лесно да тргне наопаку. Многу компании беа желни да преземат такви активности и не размислуваа како да го направат тоа. Како резултат на тоа, тие често правеа многу полош хаос отколку што имаа на нивните раце за почеток.

Сакам да појаснам и да нагласам дека вештачката интелигенција не е лек.

Кога веќе зборуваме за тоа, постои една огромна проблематика во врска со чистотата на навидум исфрлањето на човечкото пристрасно носителите на одлуки со наводно непристрасната вештачка интелигенција. Проблемот е во тоа што можеби само заменувате една група на непријатни предрасуди со друга. Според претходните индикации, вештачката интелигенција може да содржи непријатни предрасуди и може да дејствува врз тие предрасуди. Да се ​​направи дрска претпоставка дека замената на пристрасни луѓе за непристрасна вештачка интелигенција не е сè што треба да биде.

Накратко, еве го договорот кога го гледаме предметот строго од факторите на пристрасност:

  • Вештачката интелигенција нема непријатни предрасуди и затоа ADM базиран на вештачка интелигенција е корисна за распоредување
  • Вештачката интелигенција ги има истите непријатни предрасуди како и луѓето што се заменуваат и затоа ADM базиран на вештачка интелигенција е вознемирувачки
  • Вештачката интелигенција воведува нови непријатни предрасуди надвор од оние на луѓето кои се заменети и веројатно ќе ги влоши работите соодветно
  • Вештачката интелигенција на почетокот изгледа добро, а потоа постепено се ниша во неповолни предрасуди
  • други

Можеме накратко да ги отпакуваме тие можности.

Првата е идеализирана верзија на она што може да се случи. Вештачката интелигенција нема непријатни предрасуди. Ја ставате вештачката интелигенција на свое место и таа одлично ја врши работата. Добро за вас! Се разбира, би се надевале дека и вие на некој вешто начин се справивте со раселувањето на човечки работници поради вклучувањето на вештачката интелигенција.

Во вториот случај, ја поставувате вештачката интелигенција и откривате дека вештачката интелигенција ги покажува истите несакани предрасуди што ги имаа човечките работници. Како може ова да биде? Вообичаено средство за паѓање во оваа замка е користење на машинско учење (ML) и длабоко учење (DL) врз основа на собраните податоци за тоа како луѓето во улогата претходно ги носеле своите одлуки.

Дозволете ми малку да објаснам.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ја извршуваат работата со години по години инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковната шема на машинско учење или длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Сè што е кажано, можеби ќе се вратите на прво место. Истите непријатни предрасуди на луѓето сега пресметковно се пресликуваат во системот за вештачка интелигенција. Не сте ги искорениле предрасудите.

Уште полошо, можеби е помала веројатноста да сфатите дека вештачката интелигенција има предрасуди. Во случајот со луѓето, вообичаено може да внимавате дека луѓето имаат неповолни предрасуди. Ова е основно очекување. Употребата на вештачка интелигенција може да ги затиши лидерите да веруваат дека автоматизацијата целосно отстранила секаков вид човечка пристрасност. Тие на тој начин се поставуваат себеси дека си пукале во стапалото. Тие се ослободија од луѓето со навидум познати непристрасни предрасуди, заменети со вештачка интелигенција за која се сметаше дека нема такви предрасуди, а сепак сега ја ставија во употреба вештачката интелигенција полна со истите предрасуди за кои веќе се знае дека постојат.

Ова може да ги доведе работите навистина вкрстени очи. Можеби сте ги отстраниле другите заштитни огради што се користат со човечките работници кои биле воспоставени за откривање и спречување на појавата на тие веќе очекувани човечки предрасуди. Вештачката интелигенција сега има одврзани раце. Ништо не е на место за да го фати пред да дејствува. Тогаш вештачката интелигенција би можела да почне да ве води по лут пат на огромната акумулација на пристрасни дејства.

И, вие сте во непријатно и можеби одговорно држење кое некогаш сте го знаеле за предрасудите и сега сте дозволиле тие предрасуди да направат хаос. Можеби една работа е што никогаш не сте наишле на такви непријатни предрасуди, а потоа одеднаш вештачката интелигенција од ведро небо ги извира. Можеби ќе се обидете да го оправдате ова со видот „кој би погодил“ одвлекување на вниманието (можеби не многу убедливо). Но, штом сега поставивте вештачка интелигенција која ги прави истите непристрасни дејствија како порано, добро, вашите оправдувања стануваат сè потенки и помрсни.

Извртувањето на ова подразбира дека вештачката интелигенција покажува неповолни предрасуди што претходно не се сретнале кога луѓето ја извршувале задачата. Може да се каже дека ова е можеби потешко да се спречи бидејќи се состои од „нови“ предрасуди кои фирмата претходно не ги барала. Меѓутоа, на крајот, изговорите можеби нема да ви дадат големо олеснување. Ако системот за вештачка интелигенција навлезе и на неетичка и на незаконска територија, вашата гуска може да биде зготвена.

Еден друг аспект што треба да се има на ум е дека вештачката интелигенција може да започне добро, а потоа да влезе во неповолни предрасуди. Ова е особено веројатно кога употребата на машинско учење или длабоко учење се одвива на постојана основа за да се ажурира вештачката интелигенција. Без разлика дали ML/DL работи во реално време или периодично врши ажурирања, вниманието треба да биде дали вештачката интелигенција евентуално внесува податоци што сега содржат предрасуди и кои претходно не биле присутни.

За лидерите кои мислат дека добиваат бесплатен ручек мавтајќи со волшебно стапче за да ги заменат пристрасните човечки работници со вештачка интелигенција, тие се во многу грубо будење. Погледнете ја мојата дискусија за важноста на зајакнувањето на лидерите со начелата на етика на вештачката интелигенција во врската овде.

Во овој момент од оваа дискусија, би се обложил дека сакате некои примери од реалниот свет кои би можеле да ја покажат загатката за замена (или не) на човековите непристрасни предрасуди со неповолни предрасуди засновани на вештачка интелигенција.

Мило ми е што праша.

Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за непријатните предрасуди во вештачката интелигенција, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските автомобили што управуваат самостојно се оние што AI го управува автомобилот целосно сам и нема никаква помош од луѓе за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште не постои вистински автомобил за возење на ниво 5 на Ниво, за што сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту, пак, колку време ќе потрае за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и вештачка интелигенција со неповолни предрасуди

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Верувам дека обезбедува доволно литија предупредувања за да го поткрепам она за што ќе зборувам.

Подготвени сме сега да направиме длабоко нурнување во самоуправувачките автомобили и можностите за етичка вештачка интелигенција што подразбира истражување на вештачката интелигенција и неповолни предрасуди.

Ајде да користиме лесно јасен пример. Автомобил самоуправувачки базиран на вештачка интелигенција е во тек по улиците на вашето соседство и се чини дека вози безбедно. Отпрвин, посветивте посебно внимание на секој пат кога ќе успеете да ѕирнете на самоуправувачкиот автомобил. Автономното возило се издвојуваше со решетка од електронски сензори кои вклучуваат видео камери, радарски единици, уреди LIDAR и слично. По многу недели од самоуправувачкиот автомобил кој крстареше низ вашата заедница, сега едвај го забележувате тоа. Што се однесува до вас, тоа е само уште еден автомобил на веќе зафатените јавни патишта.

За да не мислите дека е невозможно или неверојатно да се запознаете со гледањето самоуправувачки автомобили, честопати пишував за тоа како местата што се во опсегот на пробни автомобили со самоуправување постепено се навикнаа да ги гледаат разубавените возила. видете ја мојата анализа на оваа врска тука. Многумина од локалното население на крајот се префрлија од занесно гајлење што ја отвора устата до сега испуштајќи експанзивен зевање на здодевност за да бидат сведоци на оние што се вртат самоуправувачки автомобили.

Веројатно главната причина што во моментов може да ги забележат автономните возила е поради факторот на иритација и вознемиреност. Системите за возење со вештачка интелигенција кои се користат во книгата се сигурни дека автомобилите ги почитуваат сите ограничувања на брзината и правилата на патот. За бурните човечки возачи во нивните традиционални автомобили управувани од луѓе, се нервирате во моменти кога ќе се заглавите зад самоуправувачките автомобили што строго ги почитуваат законите базирани на вештачка интелигенција.

Тоа е нешто на кое можеби ќе треба сите да се навикнеме, со право или погрешно.

Назад на нашата приказна.

Излегува дека почнуваат да се појавуваат две непристојни грижи за инаку безопасните и општо добредојдени самоуправувачки автомобили базирани на вештачка интелигенција, конкретно:

а. Онаму каде што вештачката интелигенција шета по самоуправувачките автомобили за да се вози, стана вознемирена грижа во заедницата во целина

б. Како вештачката интелигенција ги третира пешаците кои чекаат кои немаат право на првенство на минување е исто така проблем кој расте

На почетокот, вештачката интелигенција шеташе низ самоуправувачките автомобили низ целиот град. Секој што сакаше да побара возење во самоуправувачки автомобил, во суштина имаше еднакви шанси да го поздрави. Постепено, вештачката интелигенција првенствено почна да ги одржува самоуправувачките автомобили во роаминг во само еден дел од градот. Овој дел беше поголем заработувач на пари и системот за вештачка интелигенција беше програмиран да се обидува да ги максимизира приходите како дел од употребата во заедницата.

Членовите на заедницата во сиромашните делови на градот имаа помала веројатност да можат да се возат од самоуправувачки автомобил. Тоа беше затоа што самоуправувачките автомобили беа подалеку и се шетаа во повисокиот приход дел од локацијата. Кога барањето доаѓало од далечен дел на градот, секое барање од поблиска локација што веројатно е во „ценетиот“ дел од градот би добило поголем приоритет. На крајот, достапноста да се добие самоуправувачки автомобил на кое било место, освен во побогатиот дел од градот, беше речиси невозможна, за оние што живееја во оние области кои сега се изгладнети од ресурси.

Може да тврдите дека вештачката интелигенција прилично се спушти на форма на прокси-дискриминација (исто така честопати се нарекува индиректна дискриминација). Вештачката интелигенција не беше програмирана да ги избегнува тие посиромашни населби. Наместо тоа, „научи“ да го прави тоа преку употреба на ML/DL.

Работата е во тоа што луѓе-возачи кои споделуваат возење биле познати по тоа што го прават истото, иако не мора исклучиво поради аголот на заработка. Имаше некои од луѓе-возачи кои споделуваа јавања кои имаа непријатна пристрасност да земат возачи во одредени делови од градот. Ова беше донекаде познат феномен и градот имаше воспоставено пристап за следење за да ги фати човечките возачи кои го прават тоа. Човечките возачи би можеле да се најдат во неволја поради несоодветните практики за селекција.

Се претпоставуваше дека вештачката интелигенција никогаш нема да падне во истиот вид жив песок. Не беше воспоставен специјализиран мониторинг за да се следи каде одат самоуправувачките автомобили базирани на вештачка интелигенција. Дури откако членовите на заедницата почнаа да се жалат, градските водачи сфатија што се случува. За повеќе за овие типови на проблеми низ градот што ќе ги претстават автономните возила и самоуправувачките автомобили, видете ја мојата покриеност на оваа врска тука и која ја опишува студијата предводена од Харвард што јас сум коавтор на оваа тема.

Овој пример на аспектите на роаминг на самоуправувачките автомобили засновани на вештачка интелигенција ја илустрира претходната индикација дека може да има ситуации кои предизвикуваат луѓе со непријатни предрасуди, за кои се воспоставени контроли, и дека вештачката интелигенција што ги заменува тие човечки возачи е оставена. бесплатно. За жал, вештачката интелигенција може постепено да се заглавува во слични предрасуди и да го стори тоа без доволно заштитни огради.

Вториот пример вклучува вештачка интелигенција да определи дали да застане за да чекаат пешаци кои немаат право на првенство на минување на улица.

Несомнено сте возеле и наидовте на пешаци кои чекаа да ја преминат улицата, а сепак немаа првенство на минување да го сторат тоа. Ова значеше дека имавте дискреција дали да застанете и да ги оставите да преминат. Може да продолжите без да им дозволите да преминат и сепак да бидете целосно во рамките на законските правила за возење за тоа.

Студиите за тоа како човечките возачи одлучуваат да застанат или да не застанат за такви пешаци сугерираат дека понекогаш луѓето возачи го прават изборот врз основа на непристрасни предрасуди. Човечкиот возач може да го погледне пешакот и да избере да не застане, иако ќе застане ако пешакот имаше поинаков изглед, како на пример врз основа на раса или пол. Го испитав ова во врската овде.

Замислете дека самоуправувачките автомобили базирани на вештачка интелигенција се програмирани да се справуваат со прашањето дали да застанат или не да застанат за пешаците кои немаат право на првенство на минување. Еве како програмерите на вештачка интелигенција решија да ја програмираат оваа задача. Тие собраа податоци од градските видео камери кои се поставени насекаде низ градот. Податоците покажуваат човечки возачи кои застануваат за пешаци кои немаат првенство на минување и луѓе возачи кои не застануваат. Сето тоа е собрано во голема база на податоци.

Со користење на машинско учење и длабоко учење, податоците се моделираат пресметковно. Системот за возење со вештачка интелигенција потоа го користи овој модел за да одлучи кога да запре или да не запре. Општо земено, идејата е дека од што и да се состои локалниот обичај, вака вештачката интелигенција го насочува самоуправувачкиот автомобил.

На изненадување на градските водачи и жителите, вештачката интелигенција очигледно одлучила да застане или да не запре врз основа на изгледот на пешакот, вклучувајќи ја нивната раса и пол. Сензорите на самоуправувачкиот автомобил ќе го скенираат пешакот што чека, ќе ги внесат овие податоци во моделот ML/DL и моделот ќе емитува на вештачката интелигенција дали да застане или да продолжи. За жал, градот веќе имаше многу предрасуди на човечки возач во овој поглед и вештачката интелигенција сега го имитира истото.

Добрата вест е дека ова покренува прашање за кое речиси никој претходно не знаел дека постои. Лошата вест беше дека бидејќи вештачката интелигенција беше фатена како го прави ова, таа доби најголем дел од вината. Овој пример илустрира дека системот за вештачка интелигенција може само да ги дуплира веќе постоечките непристрасни предрасуди на луѓето.

Заклучок

Постојат многу начини да се обидете и да избегнете смислување вештачка интелигенција која или надвор од портата има неповолни предрасуди или која со текот на времето собира предрасуди. Еден пристап вклучува обезбедување дека програмерите на вештачка интелигенција се свесни за тоа што се случува и на тој начин ги држат на нивните прсти да ја програмираат вештачката интелигенција за да го спречат проблемот. Друг начин се состои во тоа што самата вештачка интелигенција се следи за неетичко однесување (видете ја мојата дискусија на врската овде) и/или да имате друго парче вештачка интелигенција што ги следи другите системи за вештачка интелигенција за потенцијално неетичко однесување (ова го опфатив на врската овде).

Да повториме, треба да сфатиме дека луѓето можат да имаат непријатни предрасуди и дека некако треба да ги знаат своите ограничувања. Слично на тоа, вештачката интелигенција може да има непријатни предрасуди и некако треба да ги знаеме нивните ограничувања.

За оние од вас кои жестоко ја прифаќаат етика на вештачката интелигенција, би сакал да завршам токму сега со уште една позната реплика што сите веќе мора да ја знаат. Имено, ве молиме продолжете да ја користите и споделувате важноста на Етичката вештачка интелигенција. И со тоа, безобразно би го кажал ова: „Повелете, разубавете ми го денот“.

Извор: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/