Подмолната прокси-дискриминација против луѓето заснована на вештачка интелигенција е застрашувачка за етиката на вештачката интелигенција, што може да се случи дури и во случај на автономни автомобили со вештачка интелигенција

Ајде да разговараме за прокси-дискриминација во услови на дејствија на модерната вештачка интелигенција (ВИ).

За да навлеземе во страната на нештата со вештачка интелигенција, прво ќе треба да ја поставиме сцената за севкупните аспекти на дискриминацијата, а потоа да истражуваме во можеби изненадувачките начини на кои вештачката интелигенција се заглавува во оваа комплицирана и понекогаш подмолна работа. Исто така, ќе дадам примери за прокси-дискриминација заснована на вештачка интелигенција, вклучително и дека тоа може да се случи дури и во случај на автономни возила со вештачка интелигенција, како што се самоуправувачките автомобили.

Ајде да почнеме.

Речничката дефиниција за дискриминација вообичаено би укажала дека тоа е чин од неправедна природа што ги третира луѓето различно врз основа на перципираните категории како што се раса, пол, возраст и така натаму (таквите критериуми често се опишуваат дека се состојат од заштитени класи). Форма на дискриминација позната како директна дискриминацијата повлекува отворено врзување на една од тие категории, како што е релативно јасно нагласување да речеме раса или пол како основа за дискриминацијата (овие би се толкувале како први фактори). Ова е можеби најтранспарентната форма на дискриминација.

Друга нешто помалку реализирана можност е употребата на индиректни дискриминација. Можеби сугерирате дека ова е посложена форма на дискриминација бидејќи се смета дека е отстранет чекор и може да биде предизвик да се извлече. Индиректната дискриминација вклучува еден или повеќе чекори отстранета селекција на категоризација. Ова е исто така вообичаено означено како прокси-дискриминација бидејќи постои посреднички фактор кој служи како посредник или придружник за основниот и поврзан прв фактор.

За да помогнеме да се разјасни навидум апстрактната идеја за индиректна или прокси дискриминација, можеме да разгледаме директен пример.

Некој аплицира за станбен кредит. Да претпоставиме дека агентот за заем кој ја разгледува апликацијата одлучил да го одбие заемот и тоа го прави врз основа на расата на апликантот. Може да се каже дека ова е пример за директна дискриминација. Но, наместо тоа, да претпоставиме дека агентот за заем го користел поштенскиот број на апликантот и одлучил да го одбие заемот врз основа на тој фактор. На прв поглед се чини дека поштенскиот код не е еден од факторите што обично се сметаат за дискриминаторски или заштитена класа. Како таков, се чини дека агентот за заем се оддалечил од дискриминаторска одлука.

Меѓутоа, проблемот може да биде што поштенскиот код е всушност прокси за нешто друго, вистинска заштитена категорија или класа. Можеби овој конкретен поштенски број е претежно составен од одредена раса или етничка припадност и се користи индиректна или прокси дискриминација. Можеби генерално го познавате овој тип на пример со фразата за црвенило.

Гледате, очигледно постои некаква поврзаност помеѓу факторот кој се состои од поштенски код и дискриминаторскиот фактор на расата во овој пример. Поштенскиот код се чини дека е невин или неутрален фактор во однос на оваа околност. Поштенскиот код на повеќето од нас изгледа како прилично безопасен предмет и не би вклучил никаков аларм.

Можеби ќе се сетите од вашите денови кога посетувате курс за статистика дека постојат статистички корелации кои можат да настанат помеѓу различни фактори, дури и фактори кои не ви се чини дека се логички корелирани еден со друг. Може да биде дека постои изразена корелација помеѓу поштенскиот код и расата. Така, изборот на поштенски код на прв поглед изгледа бенигно, но по повнимателна инспекција, тој навистина е застапник или прокси за дискриминаторската заштитена класа на раса.

Еве како еден истражувачки труд го опиша поимот за такви корелации и појавата на прокси-дискриминација: „Дискриминацијата не мора да вклучува директна употреба на заштитена класа; класните членства можеби дури и не учествуваат во одлуката. Дискриминација може да се појави и поради корелации помеѓу заштитената класа и другите атрибути. Правната рамка со различно влијание се однесува на ваквите случаи со тоа што прво бара значително различни исходи за заштитената класа, без оглед на тоа како настанале исходите. Поврзаноста помеѓу одлуките за заем и расата поради употребата на адресата на апликантот, која сама по себе е поврзана со раса, е пример за овој тип на дискриминација“ (како што е наведено во трудот со наслов Прокси-дискриминација во системи управувани од податоци: теорија и експерименти со програми за машинско учење, од Анупам Дата, Мет Фредриксон, Гихјук Ко, Пјотр Марџиел и Шајак Сен).

Сега кога ги имаме ставено на маса основите на прокси-дискриминацијата, можеме да ги претставиме аспектите за тоа како вештачката интелигенција во суштина може да вгради пресметковно прикажана верзија на прокси-дискриминација.

Би сакал да се фокусирам на денешната вештачка интелигенција, а не на некоја футуристичка вештачка интелигенција за која некои велат дека ќе биде чувствителна и ќе претставува егзистенцијален ризик (тоа е друга приказна, која ја опфатив во врската овде). И покрај безброј громогласни наслови кои во моментов прокламираат дека вештачката интелигенција на некој начин го достигнала чувството и го отелотворува човечкото знаење и расудување, ве молиме имајте предвид дека оваа преценета хипербола на вештачката интелигенција е чисто ѓубре бидејќи сè уште се потпираме на крцкање бројки во денешното одлучување за алгоритам (ADM). како што е преземено од системите за вештачка интелигенција.

Дури и фалените машинско учење (ML) и длабокото учење (DL) се состојат од совпаѓање на пресметковната шема, што значи дека бројките сè уште се во сржта на возвишената употреба на ML/DL. Не знаеме дали е можно да се постигне чувство на вештачка интелигенција. Може да биде, можеби не. Никој не може со сигурност да каже како може да дојде до ова. Некои веруваат дека постепено ќе ги подобруваме напорите за компјутерска вештачка интелигенција, така што спонтано ќе се појави форма на чувство. Други мислат дека вештачката интелигенција може да влезе во еден вид пресметковна супернова и да достигне чувство речиси самостојно (обично се нарекува сингуларност). За повеќе за овие теории за иднината на вештачката интелигенција, видете го моето покривање на врската овде.

Значи, да не се зафркаваме и лажно да веруваме дека современата вештачка интелигенција е способна да размислува како луѓе. Можеме да се обидеме да го имитираме во вештачката интелигенција она од што веруваме дека можеби се состои човечкото размислување. Досега не успеавме да ги скршиме неостварливите елементи на осмислување вештачка интелигенција што може да го вгради здравиот разум и другите камен-темелници на човечката мисла.

Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Моето опширно покривање за етика и етичка вештачка интелигенција може да се најде на оваа врска тука оваа врска тука, само за да именуваме неколку.

Можеби ќе бидете збунети како вештачката интелигенција би можела да ги впие истите видови на негативни предрасуди и нееднаквости што ги прават луѓето. Склони сме да мислиме дека вештачката интелигенција е целосно неутрална, непристрасна, едноставно машина која нема никакво емоционално влијание и лошо размислување како што би можеле да имаат луѓето. Едно од најчестите начини на вештачка интелигенција да падне во пристрасност и нееднаквост се случува кога се користи машинското учење и длабокото учење, делумно како резултат на потпирањето на собраните податоци за тоа како луѓето донесуваат одлуки.

Дозволете ми еден момент да разработам.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките според моделот инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковната шема на машинско учење или длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмското одлучување или ADM на AI аксиоматски станува оптоварено со нееднаквости.

Не е добро.

Се осмислуваат системи за вештачка интелигенција кои содржат и директна дискриминација и, исто така, скришум индиректна или прокси дискриминација. Како што беше споменато истиот горенаведениот истражувачки труд: „Системите за машинско учење, сепак, се конструирани врз основа на набљудувачки податоци од реалниот свет, со многубројните историски или институционализирани предрасуди. Како резултат на тоа, тие наследуваат предрасуди и дискриминаторски практики својствени за податоците. Усвојувањето на таквите системи води до нефер исходи и продолжување на предрасудите. Примерите се многу: расата е поврзана со предвидувањата за рецидивизам; родот што влијае на прикажаните огласи поврзани со работните места; раса што влијае на прикажаните реклами за пребарување; Апликацијата Street Bump во Бостон се фокусира на поправка на дупки на богатите населби; Испораката на Амазон истиот ден е недостапна во црните населби; и Фејсбук прикажува „бели“ или „црни“ трејлери за филмови засновани на „етничка припадност“. Различни случаи на дискриминација се забранети со закон“.

Ако имавме вештачка интелигенција која беше предмет исклучиво на вградување директна проблеми со дискриминација, шансите се дека би можеле да имаме зголемени шанси за борба да ги откриеме таквите компјутерски болести. За жал, светот не е толку лесен. Денешната вештачка интелигенција веројатно е исто толку веројатна ако не и поголема веројатност да поттикне прокси или индиректна дискриминација. Тоа е тажно сценарио за лице. Подлабокиот пресметковен лош што ја поткрепува прокси-дискриминацијата може да биде тежок орев.

Како што е наведено од комесарот на Федералната трговска комисија (FTC): „Кога алгоритамските системи се впуштаат во прокси-дискриминација, тие користат една или повеќе фацијално неутрални променливи за да се залагаат за законски заштитена карактеристика, што често резултира со различен третман или различно влијание врз заштитени класи за одредени економски, социјални и граѓански можности. Со други зборови, овие алгоритми идентификуваат навидум неутрални карактеристики за да создадат групи кои блиску ја отсликуваат заштитената класа, а овие „прокси“ се користат за вклучување или исклучување“ (како што е забележано во написот со наслов „Алгоритми и економска правда: Таксономија на штети и Патека напред за Федералната трговска комисија“ објавена во Јеил Журнал за право и технологија, од комесарката Ребека Кели Слотер, август 2021 година).

Еден аспект што треба да се има на ум е дека вештачката интелигенција некако не е сама во практикувањето на прокси-дискриминација. Ниту, пак, прокси-дискриминацијата е некоја нова измислена измисла. Имаме прокси-дискриминација долго време, секако многу пред појавата на вештачката интелигенција. Комесарот на FTC го повтори истото важно сознание: „Прокси-дискриминацијата не е нов проблем - употребата на фацијално неутрални фактори кои генерираат дискриминаторски резултати е нешто со кое општеството и законите за граѓански права се борат со децении“ (повторно во Јеил весник за право и технологија).

Дали развивачите на вештачка интелигенција намерно ги креираат своите системи за вештачка интелигенција за да содржат прокси-дискриминација?

Па, можете да ги поделите напорите за вештачка интелигенција на оние кои ненамерно се потпираат на прокси-дискриминација и оние кои намерно го прават тоа. Претпоставувам дека во голема мера, повеќето производители на вештачка интелигенција запаѓаат во пресметковната лоша на прокси-дискриминација со случајни или случајни дејства. Ова сепак не е оправдување за она што го прават. Тие сè уште се одговорни за вештачката интелигенција што ја смислиле и не можат едноставно да мавтаат со рацете и да прогласат дека не знаеле што се случува. На нивни раменици е да се обидат да се погрижат да нема таква дискриминација од нивната вештачка интелигенција. Во меѓувреме, оние кои подмолно и намерно ја конструираат својата вештачка интелигенција со прокси-дискриминација треба да бидат преземени на задача и соодветно да одговараат.

Би сакал да додадам пресврт што веројатно ќе ви ја заврти главата.

Некои тврдат дека колку сме подобри во осмислувањето на вештачката интелигенција, постои веројатност дека ќе бидеме сведоци на повеќе примери на вештачка интелигенција кои поттикнуваат прокси-дискриминација. Можеби ќе бидете збунети зошто би било така. Надежта и сонот би биле дека напредокот во вештачката интелигенција ќе ги намали шансите да се појави пресметковен кошмар за слетување во несоодветните води на прокси-дискриминација.

Интригантен агол е идентификуван во оваа студија објавена во Правен преглед на Ајова: „Наместо тоа, вештачката интелигенција користат податоци за обука за сами да откријат кои карактеристики може да се користат за да се предвиди целната променлива. Иако овој процес целосно ја игнорира причинско-последичната врска, тој резултира со вештачка интелигенција неизбежно да „бараат“ прокси за директно предвидливи карактеристики кога податоците за овие карактеристики не се достапни на ВИ поради законски забрани. Едноставното оневозможување на пристапот на вештачката интелигенција до најинтуитивните прокси за директно предвидливи променливи не прави малку за да го спречи овој процес; наместо тоа, едноставно предизвикува ВИ да произведуваат модели кои се потпираат на помалку интуитивни прокси. Така, централниот аргумент на овој член е дека како што АИ стануваат уште попаметни и големите податоци стануваат уште поголеми, прокси-дискриминацијата ќе претставува сè пофундаментален предизвик за режимите против дискриминација кои се обидуваат да ја забранат дискриминацијата врз основа на директно предвидливи особини“ (како што е споменато во статијата со право Прокси-дискриминација во ерата на вештачка интелигенција и големи податоци, од Ања Принц и Даниел Шварц).

Ајде да се обидеме да ја претставиме логиката на ова застрашувачко предвидување.

Да претпоставиме дека развивачите на вештачка интелигенција незапирливо стануваат свесни дека треба да избегнуваат да дозволат нивните модели за машинско учење и длабоко учење да се стремат кон прокси-дискриминација (се надеваме дека тие веќе бараат директна дискриминација). Во ред, така што градителите на вештачка интелигенција прават се што можат за да избегнат пресметковно закачување на заштитените фактори. Но, да претпоставиме дека ова е направено на донекаде очигледна основа, како што е ограничување на кој било тип на прокси од еден до два чекора.

Пресметковните модели навлегуваат подлабоко во податоците и наоѓаат поврзаност во три или можеби десет чекори отстранета на прокси-дискриминација. Програмерите на вештачката интелигенција се навидум среќни што може да се прикаже два чекора дека не е дел од нивниот ML/DL систем. Во меѓувреме, тие можеби не сфаќаат дека математички се откриени три-чекор или десет чекори или некои други нивоа на подмолност. Имајте на ум дека вештачката интелигенција не е чувствителна и не се обидува внимателно да го стори тоа. Сè уште се повикуваме на вештачката интелигенција која не е чувствителна и дејствува врз основа на бројки и пресметки.

Да, вознемирувачкиот факт дека вештачката интелигенција „напредува“, а сепак се чини дека се движиме во помрачна состојба на работите е прилично вознемирувачки, а можеби и вознемирувачки. Со оглед на тоа што од една страна можеби сме задоволни што свеста за спречување на прокси-дискриминација добива поголемо внимание, проблемот едноставно нема да исчезне. Напорите да се избегне прокси-дискриминација заснована на вештачка интелигенција може да ги туркаат дискриминаторските пресметковни откритија сè подлабоко и подлабоко од тоа да бидат откриени или откриени од луѓето.

Ова ме потсетува на старите цртани филмови кога човек се навлекол во жив песок. Колку повеќе се тресат наоколу, толку работите стануваат полоши. Во извесна смисла, личноста предизвикува сопствена пропаст борејќи се жестоко против живиот песок. Ова е секако иронично бидејќи вообичаено би очекувале дека борбата против нешто ќе доведе до ваше бегство или ослободување.

Не мора да е така.

Експертите ќе ви кажат дека ако некогаш ве фати жив песок, вашата разумна опција ќе биде да се обидете да го опуштите излезот од страшната ситуација. Треба да се обидете да плутате на врвот на живиот песок, можеби потпирајќи се наназад и држејќи ги стапалата на ниво со главата. Дивото треснување не е пожелно и несомнено ќе ви ги намали шансите за бегство. Најдобрите шанси се да се трудите да испливате или лесно да испливате, или барем да стигнете до позиција во живиот песок каде што можете да стигнете до гранка или нешто друго за потоа да се извлечете понатаму.

Можеме ли да го користиме тој тип на совети за да се бориме против прокси-дискриминацијата со вештачката интелигенција?

Вид на.

Прво, знаејќи дека може да се случи прокси-дискриминација е клучен елемент за оние кои осмислуваат и применуваат системи за вештачка интелигенција. Сите засегнати страни треба да размислуваат за ова. Менаџментот што ги надгледува проектите за вештачка интелигенција мора да биде на врвот на ова бидејќи не се само „кодерите за вештачка интелигенција“ кои се дел од тешката ситуација. Веројатно, исто така, ќе видиме и регулатори кои исто така тежат, како што е донесување нови закони за да се обидат да ја ограничат или барем да ја фатат вештачката интелигенција која има вградено дискриминаторски практики. итн.

Како на Правен преглед на Ајова студија, можеби ќе се стремиме кон тоа да имаме закони и регулативи за вештачка интелигенција кои наметнуваат должност да се прикажат податоците што се користат за ML/DL: „На пример, погодените антидискриминаторски режими би можеле да дозволат, а можеби дури и да бараат, фирмите кои користат предвидливи ВИ да собираат податоци за потенцијалното членство на поединците во законски заштитени класи. Во некои случаи, овие податоци треба да се споделат со регулаторите и/или да се обелоденат на јавноста во форма на резиме. Таквите податоци се неопходни за фирмите, регулаторите, странките и другите да тестираат дали некоја конкретна вештачка интелигенција, всушност, се занимава со прокси-дискриминација“ (според написот на Ања Принс и Даниел Шварц).

Други можности вклучуваат користење поразновидни податоци и поширок сет на извори на податоци при осмислување модел за машинско учење и длабоко учење. Друго е дека од развивачите на вештачка интелигенција може да се бара да покажат дека нивниот систем за вештачка интелигенција не користи прокси-дискриминација. Обидот математички да се прикаже или докаже дека ова е недостаток или отсуство на прокси-дискриминација ќе биде особено предизвик, во најмала рака.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во бездната за дискриминација на прокси (видете ја мојата анализа за таквите способности на врската овде).

Во овој момент од оваа дискусија, би се обложил дека сакате некои дополнителни примери кои би можеле да ја покажат загатката за прокси-дискриминација базирана на вештачка интелигенција.

Мило ми е што праша.

Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто за прокси-дискриминацијата заснована на вештачка интелигенција, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските автомобили што управуваат самостојно се оние што AI го управува автомобилот целосно сам и нема никаква помош од луѓе за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште не постои вистински автомобил за возење на ниво 5 на Ниво, за што сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту, пак, колку време ќе потрае за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и прокси-дискриминација заснована на вештачка интелигенција

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Верувам дека обезбедува доволно литија предупредувања за да го поткрепам она за што ќе зборувам.

Сега сме подготвени длабоко да се нурнеме во самоуправувачките автомобили и можностите за етичка вештачка интелигенција што подразбира истражување на прокси-дискриминација заснована на вештачка интелигенција.

Замислете дека самоуправувачки автомобил базиран на вештачка интелигенција е во тек на улиците во вашето соседство и се чини дека вози безбедно. Отпрвин, посветивте посебно внимание на секој пат кога ќе успеете да ѕирнете на самоуправувачкиот автомобил. Автономното возило се издвојуваше со решетка од електронски сензори кои вклучуваат видео камери, радарски единици, уреди LIDAR и слично. По многу недели од самоуправувачкиот автомобил кој крстареше низ вашата заедница, сега едвај го забележувате тоа. Што се однесува до вас, тоа е само уште еден автомобил на веќе зафатените јавни патишта.

За да не мислите дека е невозможно или неверојатно да се запознаете со гледањето самоуправувачки автомобили, честопати пишував за тоа како местата што се во опсегот на пробни автомобили со самоуправување постепено се навикнаа да ги гледаат разубавените возила. видете ја мојата анализа на оваа врска тука. Многумина од локалното население на крајот се префрлија од занесно гајлење што ја отвора устата до сега испуштајќи експанзивен зевање на здодевност за да бидат сведоци на оние што се вртат самоуправувачки автомобили.

Веројатно главната причина што во моментов може да ги забележат автономните возила е поради факторот на иритација и вознемиреност. Системите за возење со вештачка интелигенција кои се користат во книгата се сигурни дека автомобилите ги почитуваат сите ограничувања на брзината и правилата на патот. За бурните човечки возачи во нивните традиционални автомобили управувани од луѓе, се нервирате во моменти кога ќе се заглавите зад самоуправувачките автомобили што строго ги почитуваат законите базирани на вештачка интелигенција.

Тоа е нешто на кое можеби ќе треба сите да се навикнеме, со право или погрешно.

Назад на нашата приказна.

Излегува дека почнуваат да се појавуваат две непристојни грижи за инаку безопасните и општо добредојдени самоуправувачки автомобили базирани на вештачка интелигенција, конкретно:

а. Онаму каде што вештачката интелигенција шета по самоуправувачките автомобили за да се вози, се наѕираше како гласна грижа

б. Како вештачката интелигенција ги третира пешаците кои чекаат кои немаат право на првенство на минување, стана актуелно прашање

На почетокот, вештачката интелигенција шеташе низ самоуправувачките автомобили низ целиот град. Секој што сакаше да побара возење во самоуправувачки автомобил, во суштина имаше еднакви шанси да го поздрави. Постепено, вештачката интелигенција првенствено почна да ги одржува самоуправувачките автомобили во роаминг во само еден дел од градот. Овој дел беше поголем заработувач на пари и системот за вештачка интелигенција беше програмиран да се обидува да ги максимизира приходите како дел од употребата во заедницата.

Членовите на заедницата во сиромашните делови на градот имаа помала веројатност да можат да се возат од самоуправувачки автомобил. Тоа беше затоа што самоуправувачките автомобили беа подалеку и се шетаа во повисокиот приход дел од локацијата. Кога барањето доаѓало од далечен дел на градот, секое барање од поблиска локација што веројатно е во „ценетиот“ дел од градот би добило поголем приоритет. На крајот, достапноста да се добие самоуправувачки автомобил на кое било место, освен во побогатиот дел од градот, беше речиси невозможна, за оние што живееја во оние области кои сега се изгладнети од ресурси.

Може да тврдите дека вештачката интелигенција прилично се спушти на форма на прокси-дискриминација (исто така честопати се нарекува индиректна дискриминација). Вештачката интелигенција не беше програмирана да ги избегнува тие посиромашни населби. Наместо тоа, „научи“ да го прави тоа преку употреба на ML/DL.

Работата е во тоа што луѓе-возачи кои споделуваат возење биле познати по тоа што го прават истото, иако не мора исклучиво поради аголот на заработка. Имаше некои од луѓе-возачи кои споделуваа јавања кои имаа непријатна пристрасност да земат возачи во одредени делови од градот. Ова беше донекаде познат феномен и градот имаше воспоставено пристап за следење за да ги фати човечките возачи кои го прават тоа. Човечките возачи би можеле да се најдат во неволја поради несоодветните практики за селекција.

Се претпоставуваше дека вештачката интелигенција никогаш нема да падне во истиот вид жив песок. Не беше воспоставен специјализиран мониторинг за да се следи каде одат самоуправувачките автомобили базирани на вештачка интелигенција. Дури откако членовите на заедницата почнаа да се жалат, градските водачи сфатија што се случува. За повеќе за овие типови на проблеми низ градот што ќе ги претстават автономните возила и самоуправувачките автомобили, видете ја мојата покриеност на оваа врска тука и која ја опишува студијата предводена од Харвард што јас сум коавтор на оваа тема.

Овој пример на аспектите на роаминг на самоуправувачките автомобили засновани на вештачка интелигенција ја илустрира претходната индикација дека може да има ситуации кои предизвикуваат луѓе со непријатни предрасуди, за кои се воспоставени контроли, и дека вештачката интелигенција што ги заменува тие човечки возачи е оставена. бесплатно. За жал, вештачката интелигенција може постепено да се заглавува во слични предрасуди и да го стори тоа без доволно заштитни огради.

Ова покажува како погубно може да се појави прокси-дискриминација заснована на вештачка интелигенција.

Вториот пример вклучува вештачка интелигенција да определи дали да застане за да чекаат пешаци кои немаат право на првенство на минување на улица.

Несомнено сте возеле и наидовте на пешаци кои чекаа да ја преминат улицата, а сепак немаа првенство на минување да го сторат тоа. Ова значеше дека имавте дискреција дали да застанете и да ги оставите да преминат. Може да продолжите без да им дозволите да преминат и сепак да бидете целосно во рамките на законските правила за возење за тоа.

Студиите за тоа како човечките возачи одлучуваат да застанат или да не застанат за такви пешаци сугерираат дека понекогаш луѓето возачи го прават изборот врз основа на непристрасни предрасуди. Човечкиот возач може да го погледне пешакот и да избере да не застане, иако ќе застане ако пешакот имаше поинаков изглед, како на пример врз основа на раса или пол. Го испитав ова во врската овде.

Замислете дека самоуправувачките автомобили базирани на вештачка интелигенција се програмирани да се справуваат со прашањето дали да застанат или не да застанат за пешаците кои немаат право на првенство на минување. Еве како програмерите на вештачка интелигенција решија да ја програмираат оваа задача. Тие собраа податоци од градските видео камери кои се поставени насекаде низ градот. Податоците покажуваат човечки возачи кои застануваат за пешаци кои немаат првенство на минување и луѓе возачи кои не застануваат. Сето тоа е собрано во голема база на податоци.

Со користење на машинско учење и длабоко учење, податоците се моделираат пресметковно. Системот за возење со вештачка интелигенција потоа го користи овој модел за да одлучи кога да запре или да не запре. Општо земено, идејата е дека од што и да се состои локалниот обичај, вака вештачката интелигенција го насочува самоуправувачкиот автомобил.

На изненадување на градските водачи и жителите, вештачката интелигенција очигледно се одлучила да застане или да не запре врз основа на возраста на пешакот. Како може да се случи тоа?

По внимателно разгледување на видеото за дискреција на човечкото возило, излегува дека многу од случаите на незастанување вклучувале пешаци кои имале бастун од повозрасен граѓанин. Возачите навидум не сакаа да застанат и да дозволат остарено лице да ја премине улицата, веројатно поради претпоставената должина на времето што може да му биде потребно на некој да го направи патувањето. Ако пешакот изгледаше како да може брзо да стрела преку улицата и да го минимизира времето на чекање на возачот, возачите беа поподложни да го пуштат лицето да помине.

Ова беше длабоко закопано во системот за возење со вештачка интелигенција. Сензорите на самоуправувачкиот автомобил ќе го скенираат пешакот што чека, ќе ги внесат овие податоци во моделот ML/DL и моделот ќе емитува на вештачката интелигенција дали да застане или да продолжи. Секоја визуелна индикација дека пешакот може бавно да премине, како што е употребата на стап за одење, математички се користеше за да се утврди дали системот за возење со вештачка интелигенција треба да му дозволи на пешакот што чека да премине или не. Може да тврдите дека ова е форма на прокси-дискриминација врз основа на возраста.

Заклучок

Постојат многу начини да се обидете да избегнете смислување вештачка интелигенција која вклучува прокси-дискриминација или која со текот на времето собира такви предрасуди. Колку што е можно, идејата е да се фатат проблемите пред да тргнете во голема брзина и да ја распоредите вештачката интелигенција. Се надеваме дека ниту директната дискриминација ниту прокси-дискриминацијата нема да излезат од вратата, така да се каже.

Како што беше посочено претходно, еден пристап вклучува обезбедување дека развивачите на вештачка интелигенција и другите засегнати страни се свесни за етиката на вештачката интелигенција и на тој начин ги поттикнуваат да бидат на нивните прсти за да осмислат вештачка интелигенција за да ги спречат овие работи. Друг начин се состои во тоа што самата вештачка интелигенција ќе се надгледува за неетичко однесување и/или има друго парче вештачка интелигенција што ги следи другите системи за вештачка интелигенција за потенцијално неетичко однесување. Во моите дела опфатив многу други потенцијални решенија.

Конечна мисла засега.

Можеби знаете дека Лу Гериг славното рече дека во бејзболот нема простор за дискриминација. Од истата линија на размислување, можете смело да изјавите дека во вештачката интелигенција нема простор за дискриминација.

Сите ние треба да се подигнеме и да најдеме начини да спречиме да се внесе дискриминација во системите за вештачка интелигенција. За доброто на сите нас, треба да го погодиме ова надвор од теренот.

Извор: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-discrimination-against-humans-is-dauntingly-vexing-for-ai-ethics-which- може-да се случи-дури-во-случај-автономни-само-возечки-автомобили/