Шокантно откритие за етика на вештачката интелигенција дека тренирањето вештачка интелигенција да биде токсична или пристрасна може да биде корисно, вклучително и за оние автономни автомобили кои самостојно управуваат

Еве една стара реплика за која сум сигурен дека сте ја слушнале претходно.

Потребно е да се знае еден.

Можеби не сфаќате дека ова е израз што може да се проследи до раните 1900-ти и вообичаено се повикувал кога се однесуваат на злосторниците (другите варијации на фразата се враќаат подалеку, како на пример во 1600-тите). Пример за тоа како овој исказ може да се користи ја повлекува идејата дека ако сакате да фатите крадец, тогаш треба да користите крадец за да го направите тоа. Ова го покажува тврдењето дека е потребно човек да знае едно. Многу филмови и ТВ емисии ја искористија оваа практична мудрост на мудрец, често прикажувајќи дека единственото остварливо средство за фаќање измамник е ангажирање на подеднакво корумпиран измамник за да го гони престапникот.

Префрлајќи ги брзините, некои би можеле да ја искористат истата логика за да тврдат дека соодветен начин да се види дали некој отелотворува непотребни предрасуди и дискриминаторски верувања би бил да се најде некој што веќе има такви тенденции. Веројатно, личноста која веќе е исполнета со предрасуди ќе може полесно да почувствува дека и овој друг човек е исто така исполнет до работ со токсичност. Повторно, потребно е да се знае дека е закажано мантра.

Вашата првична реакција на можноста да користите пристрасна личност за да откриете друга пристрасна личност може да биде скептицизам и неверување. Зарем не можеме да откриеме дали некој има непристрасни предрасуди само со тоа што ги испитува и не мора да се прибегне кон наоѓање на некој друг од слична природа? Се чини чудно намерно да се бара да се открие некој кој е пристрасен за да се откријат други кои се исто така токсично пристрасни.

Претпоставувам дека делумно зависи од тоа дали сте спремни да го прифатите претпоставениот рефрен дека е потребно човек да знае еден. Имајте предвид дека ова не сугерира дека единствениот начин да се фати крадец бара исклучиво и секогаш да користите крадец. Разумно може да се чини дека тврдите дека ова е само дополнителна патека на која може да се земе должно внимание. Можеби понекогаш сте спремни да се забавувате со можноста да користите крадец за да фатите крадец, додека други околности може да ја направат оваа неразбирлива тактика.

Користете ја вистинската алатка за вистинското поставување, како што велат.

Сега кога ги изложив тие основи, можеме да продолжиме во можеби вознемирувачкиот и навидум шокантен дел од оваа приказна.

Дали сте подготвени?

Областа на вештачката интелигенција активно го следи истиот принцип дека понекогаш е потребно да се знае, особено во случај на обид да се открие вештачката интелигенција која е пристрасна или делува на дискриминаторски начин. Да, идејата што го нарушува умот е дека можеби намерно сакаме да осмислиме вештачка интелигенција која е целосно и нескромно пристрасна и дискриминаторска, правејќи го тоа со цел да го искористиме ова како средство за откривање и откривање на друга вештачка интелигенција што го има истиот привид на токсичност. Како што ќе видите во еден момент, постојат различни вознемирувачки етички прашања за вештачката интелигенција во основата на ова прашање. За моето целокупно тековно и опширно покривање на етика и етичка вештачка интелигенција, видете врската овде врската овде, само за да именуваме неколку.

Претпоставувам дека би можеле да ја изразите оваа употреба на токсична вештачка интелигенција за да тргнете по друга токсична вештачка интелигенција како пословичен концепт за борба против оган со оган (можеме да повикаме многу еуфемизми и илустративни метафори за да ја прикажеме оваа ситуација). Или, како што веќе беше нагласено, би можеле скромно да се повикаме на тврдењето дека е потребно човек да знае едно.

Сеопфатниот концепт е дека наместо само да се обидуваме да откриеме дали даден систем на вештачка интелигенција содржи непотребни предрасуди со користење на конвенционални методи, можеби треба да бараме и помалку конвенционални средства. Едно од таквите неконвенционални средства би било да се осмисли вештачка интелигенција која ги содржи сите најлоши предрасуди и општествено неприфатливи токсичности, а потоа да се користи оваа вештачка интелигенција за да се помогне во рутирање на друга вештачка интелигенција која ги има истите склоности на лошотија.

Кога брзо ќе размислите за ова, сигурно се чини дека е совршено разумно. Би можеле да се стремиме да изградиме вештачка интелигенција која е токсична до максимум. Оваа токсична вештачка интелигенција потоа се користи за да се открие друга вештачка интелигенција која исто така има токсичност. За тогаш откриената „лоша“ вештачка интелигенција, можеме да се справиме со неа или со поништување на токсичноста, целосно отфрлање на вештачката интелигенција (видете ја мојата објава за исфрлање или уништување на вештачката интелигенција на оваа врска тука), или затворање на вештачката интелигенција (видете ја мојата покриеност за затворање со вештачка интелигенција на оваа врска тука), или направете што друго изгледа применливо да се направи.

Контрааргумент е дека треба да ги испитаме нашите глави дека намерно и доброволно смислуваме вештачка интелигенција која е токсична и исполнета со предрасуди. Ова е последното нешто што треба да го разгледаме, некои би поттикнале. Фокусирајте се на тоа вештачката интелигенција да се состои целосно од добрина. Не фокусирајте се на осмислување вештачка интелигенција која има зла и талог на непотребни предрасуди. Самиот поим за таква потера на некои им изгледа одбивен.

Има повеќе дилеми околу оваа контроверзна потрага.

Можеби мисијата за осмислување токсична вештачка интелигенција само ќе ги охрабри оние кои сакаат да направат вештачка интелигенција која ќе може да го поткопува општеството. Како да велиме дека изработката на вештачка интелигенција која има несоодветни и непријатни предрасуди е сосема во ред. Без грижи, без двоумење. Обидете се да смислите токсична вештачка интелигенција според вашата содржина, ние гласно им го пренесуваме на градителите на вештачка интелигенција низ целиот свет. Тоа е (намигнување-намигнување) се во име на добрината.

Понатаму, да претпоставиме дека оваа токсична вештачка интелигенција се фаќа. Можеби вештачката интелигенција се користи и повторно се користи од многу други градители на вештачка интелигенција. На крајот, токсичната вештачка интелигенција се крие во сите системи на вештачка интелигенција. Може да се направи аналогија со осмислување вирус што го поткопува човекот кој бега од веројатно запечатена лабораторија. Следно што знаете, проклето е насекаде и ние се избришавме.

Чекај малку, контрата на тие контрааргументи оди, ти се замараш со секакви луди и неподдржани претпоставки. Земи длабок здив. Смири се.

Можеме безбедно да направиме вештачка интелигенција која е токсична и да ја држиме затворена. Можеме да ја искористиме токсичната вештачка интелигенција за да пронајдеме и да помогнеме во намалувањето на зголемената преваленца на вештачката интелигенција која за жал има непотребни предрасуди. Било кој друг од овие бесмислено диви и неаргументирани извици за снежни топки се чисто непредвидливи реакции и, за жал, глупави и целосно безумни. Не обидувајте се да го исфрлите бебето со водата за капење, предупредени сте.

Размислете за тоа на овој начин, тврдат предлагачите. Правилното градење и употреба на токсична вештачка интелигенција за целите на истражување, проценка и дејствување како детектив за откривање на друга општествено навредлива вештачка интелигенција е достоен пристап и треба да го добие својот фер треперење да се следи. Оставете ги настрана вашите осипни реакции. Слезете на земјата и трезвено погледнете го ова. Нашето око е вперено во наградата, имено откривање и поништување на презаситеноста од системите за вештачка интелигенција засновани на пристрасност и обезбедување дека како општество нема да бидеме преплавени со токсична вештачка интелигенција.

Период. Точка.

Постојат различни клучни начини да се навлезе во овој поим за користење на токсична или пристрасна вештачка интелигенција за корисни цели, вклучувајќи:

  • Поставете збирки на податоци кои намерно содржат пристрасни и целосно токсични податоци што може да се користат за обука на вештачката интелигенција во врска со тоа што не треба да се прави и/или што да се внимава
  • Користете ги таквите збирки на податоци за да ги обучите моделите за машинско учење (ML) и за длабоко учење (DL) за откривање на предрасуди и за откривање на пресметковни обрасци што предизвикуваат општествена токсичност
  • Применете го обучениот ML/DL за токсичност кон друга вештачка интелигенција за да утврдите дали целната вештачка интелигенција е потенцијално пристрасна и токсична
  • Обезбедете достапен ML/DL обучен за токсичност за да им покаже на градителите на вештачка интелигенција на што треба да внимаваат за да можат лесно да ги прегледаат моделите за да видат како се појавуваат алгоритамски набиени предрасуди
  • Наведете ги опасностите од токсичната вештачка интелигенција како дел од свеста за етика и етичка вештачка интелигенција, сето тоа кажано преку оваа серија примери на примери со лоша вештачка интелигенција за деца.
  • други

Пред да влеземе во месото од тие неколку патеки, ајде да утврдиме некои дополнителни основни детали.

Можеби сте нејасно свесни дека еден од најгласните гласови овие денови во полето на вештачката интелигенција, па дури и надвор од полето на вештачката интелигенција, се состои од галама за поголема привидност на етичка вештачка интелигенција. Ајде да погледнеме што значи да се однесуваме на етика и етичка вештачка интелигенција. Згора на тоа, можеме да ја поставиме сцената со тоа што ќе истражиме што мислам кога зборувам за машинско учење и за длабоко учење.

Еден специфичен сегмент или дел од етиката на вештачката интелигенција што привлекува големо медиумско внимание се состои од вештачка интелигенција која покажува неповолни предрасуди и нееднаквости. Можеби сте свесни дека кога започна најновата ера на вештачката интелигенција, имаше огромен излив на ентузијазам за она што некои сега го нарекуваат AI за добро. За жал, веднаш по таа бликава возбуда, почнавме да сведочиме AI за лошо. На пример, откриени се различни системи за препознавање лица базирани на вештачка интелигенција дека содржат расни предрасуди и родови предрасуди, за кои разговарав на врската овде.

Напори да се возврати против AI за лошо се активно во тек. Покрај гласно правни стремежите за зауздување на погрешното постапување, постои и суштински притисок кон прифаќање на етиката на вештачката интелигенција за да се исправи грозноста на вештачката интелигенција. Поимот е дека треба да ги усвоиме и одобриме клучните етички принципи за вештачка интелигенција за развој и спроведување на вештачката интелигенција, правејќи го тоа за да ја намалиме AI за лошо и истовремено најавување и промовирање на пожелно AI за добро.

Според една поврзана идеја, јас сум застапник на обидот да се користи вештачката интелигенција како дел од решението за проблемите со вештачката интелигенција, борејќи се со оган со оган на тој начин на размислување. Можеме, на пример, да вградиме компоненти на етичка вештачка интелигенција во систем за вештачка интелигенција што ќе следи како остатокот од вештачката интелигенција ги прави работите и на тој начин потенцијално во реално време ќе ги фати сите дискриминаторски напори, видете ја мојата дискусија на врската овде. Можеме да имаме и посебен систем за вештачка интелигенција кој делува како тип на монитор за етика на вештачката интелигенција. Системот за вештачка интелигенција служи како надзорник за следење и откривање кога друга вештачка интелигенција оди во неетичката бездна (видете ја мојата анализа за таквите способности на врската овде).

Во еден момент, ќе споделам со вас некои сеопфатни принципи кои се во основата на етиката на вештачката интелигенција. Има многу вакви списоци кои лебдат овде и таму. Може да се каже дека сè уште не постои единствена листа на универзална привлечност и согласност. Тоа е несреќната вест. Добрата вест е дека барем има лесно достапни листи за етика на вештачката интелигенција и тие имаат тенденција да бидат доста слични. Сè што е кажано, ова сугерира дека со форма на разумна конвергенција го наоѓаме нашиот пат кон општо заедништво на она од што се состои етика на вештачката интелигенција.

Прво, ајде накратко да покриеме некои од севкупните правила за етичка вештачка интелигенција за да илустрираме што треба да биде од витално значење за секој што изработува, развива или користи ВИ.

На пример, како што е наведено од Ватикан во Рим повик за етика на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните идентификувани шест основни етички принципи за вештачка интелигенција:

  • Транспарентност: Во принцип, системите за вештачка интелигенција мора да бидат објаснети
  • Вклучување: Мора да се земат предвид потребите на сите луѓе за да може секој да има корист, а на сите поединци да им се понудат најдобри можни услови за да се изразат и да се развиваат.
  • Одговорност: Оние кои дизајнираат и применуваат употреба на вештачка интелигенција мора да продолжат со одговорност и транспарентност
  • Непристрасност: Не создавајте или дејствувајте според пристрасност, со што ќе ја зачувате правичноста и човечкото достоинство
  • Доверливост: Системите за вештачка интелигенција мора да бидат способни да работат сигурно
  • Безбедност и приватност: Системите за вештачка интелигенција мора да работат безбедно и да ја почитуваат приватноста на корисниците.

Како што е наведено од Министерството за одбрана на САД (DoD) во нивните Етички принципи за употреба на вештачка интелигенција и како што опфатив во-длабочината на врската овде, ова се нивните шест основни етички принципи за вештачка интелигенција:

  • Одговорен: Персоналот на Дод ќе има соодветни нивоа на проценка и грижа додека останува одговорен за развојот, распоредувањето и користењето на способностите на вештачката интелигенција.
  • Правично: Одделот ќе преземе намерни чекори за да се минимизира ненамерната пристрасност во способностите на вештачката интелигенција.
  • Може да се следи: Способностите за вештачка интелигенција на Одделот ќе бидат развиени и распоредени така што релевантниот персонал ќе поседува соодветно разбирање за технологијата, развојните процеси и оперативните методи применливи за способностите на вештачката интелигенција, вклучувајќи транспарентни методологии за ревизија, извори на податоци и процедура за дизајнирање и документација.
  • сигурен: Способностите за вештачка интелигенција на Одделот ќе имаат експлицитна, добро дефинирана употреба, а безбедноста, безбедноста и ефективноста на таквите способности ќе бидат предмет на тестирање и уверување во рамките на тие дефинирани употреби во текот на целиот нивен животен циклус.
  • Управувачки: Одделот ќе дизајнира и инженери способности за вештачка интелигенција за да ги исполни нивните предвидени функции, истовремено поседувајќи способност за откривање и избегнување несакани последици, како и можност за исклучување или деактивирање на распоредените системи кои покажуваат ненамерно однесување.

Дискутирав и за различни колективни анализи на етичките принципи на вештачката интелигенција, вклучително и покривање на збир осмислен од истражувачи кои ја испитуваа и кондензираат суштината на бројните национални и меѓународни етички начела за вештачка интелигенција во трудот со наслов „Глобалниот пејзаж на етичките насоки за вештачка интелигенција“ (објавено во природата), и дека мојата покриеност истражува во врската овде, што доведе до оваа клучна листа:

  • Транспарентност
  • Правда и правичност
  • Незлобност
  • Одговорност
  • Заштита на податоци
  • Благодет
  • Слобода и автономија
  • Верувајте
  • Одржливост
  • Достоинство
  • солидарност

Како што може директно да претпоставите, обидот да се утврдат спецификите на овие принципи може да биде исклучително тешко да се направи. Уште повеќе, напорот да се претворат тие широки принципи во нешто сосема опипливо и доволно детално за да се користи при изработката на системи со вештачка интелигенција, исто така, е тежок орев. Лесно е генерално да се мавта со рака за тоа што се правилата за етика на вештачката интелигенција и како тие генерално треба да се почитуваат, додека многу посложена е ситуацијата во кодирањето со вештачка интелигенција што треба да биде вистинската гума што одговара на патот.

Принципите за етика на вештачката интелигенција треба да ги користат развивачите на вештачка интелигенција, заедно со оние што управуваат со напорите за развој на вештачка интелигенција, па дури и оние што на крајот ги спроведуваат и вршат одржување на системите за вештачка интелигенција. Сите засегнати страни во текот на целиот животен циклус на развој и употреба на вештачката интелигенција се сметаат во рамките на почитувањето на веќе воспоставените норми на Етичката вештачка интелигенција. Ова е важен момент бидејќи вообичаената претпоставка е дека „само кодерите“ или оние што ја програмираат вештачката интелигенција подлежат на придржување до поимите за етика на вештачката интелигенција. Како што беше претходно наведено, потребно е едно село за да се смисли и да се спроведе вештачка интелигенција, и за што целото село треба да биде упатено и да се придржува до етичките правила на вештачката интелигенција.

Ајде, исто така, да се погрижиме дека сме на иста страница за природата на денешната вештачка интелигенција.

Денес не постои вештачка интелигенција која е чувствителна. Ние го немаме ова. Не знаеме дали чувствителната вештачка интелигенција ќе биде можна. Никој не може соодветно да предвиди дали ќе постигнеме чувствителна вештачка интелигенција, ниту дали чувствителната вештачка интелигенција некако чудесно спонтано ќе се појави во форма на пресметковна когнитивна супернова (обично се нарекува сингуларност, видете го мојот опфат на врската овде).

Типот на вештачка интелигенција на која се фокусирам се состои од нечувствителна вештачка интелигенција што ја имаме денес. Ако сакаме диво да шпекулираме за чувствителен ВИ, оваа дискусија би можела да оди во радикално поинаква насока. Сетилна вештачка интелигенција наводно би била со човечки квалитет. Треба да земете во предвид дека чувствителната вештачка интелигенција е когнитивен еквивалент на човекот. Уште повеќе, бидејќи некои шпекулираат дека можеби имаме суперинтелигентна вештачка интелигенција, може да се замисли дека таквата вештачка интелигенција би можела да биде попаметна од луѓето (за моето истражување на суперинтелигентна вештачка интелигенција како можност, види покриеноста овде).

Ајде да ги задржиме работите поприземни и да ја разгледаме денешната пресметковна нечувствителна вештачка интелигенција.

Сфатете дека денешната вештачка интелигенција не е способна да „размислува“ на кој било начин како човечкото размислување. Кога комуницирате со Alexa или Siri, капацитетите за разговор може да изгледаат слични на човечките капацитети, но реалноста е дека тоа е пресметковно и нема човечко сознание. Најновата ера на вештачката интелигенција широко ги користи машинското учење (ML) и длабокото учење (DL), кои го користат совпаѓањето на пресметковните модели. Ова доведе до системи со вештачка интелигенција кои имаат изглед на склоности слични на луѓето. Во меѓувреме, не постои ниту една вештачка интелигенција денес која има привид на здрав разум и ниту едно когнитивно чудо на робусното човечко размислување.

ML/DL е форма на усогласување на пресметковните шаблони. Вообичаениот пристап е да собирате податоци за задачата за донесување одлуки. Ги внесувате податоците во ML/DL компјутерските модели. Тие модели бараат да најдат математички обрасци. По пронаоѓањето на таквите обрасци, доколку се пронајдени, системот за вештачка интелигенција тогаш ќе ги користи тие обрасци кога ќе наиде на нови податоци. При презентација на нови податоци, шемите засновани на „старите“ или историските податоци се применуваат за да се донесе моментална одлука.

Мислам дека можете да погодите каде оди ова. Ако луѓето кои ги носеле одлуките, инкорпорирале непристрасни предрасуди, шансите се дека податоците го одразуваат ова на суптилни, но значајни начини. Усогласувањето на пресметковните шаблони за машинско учење или за длабоко учење едноставно ќе се обиде математички да ги имитира податоците соодветно. Не постои привид на здрав разум или други чувствителни аспекти на моделирањето направено со вештачка интелигенција само по себе.

Понатаму, развивачите на вештачка интелигенција можеби нема да сфатат што се случува. Тајната математика во ML/DL може да го отежне откривањето на сега скриените предрасуди. Со право би се надевале и очекувате дека развивачите на вештачка интелигенција ќе тестираат за потенцијално закопаните предрасуди, иако ова е потешко отколку што може да изгледа. Постои солидна шанса дури и со релативно опширно тестирање дека сè уште ќе има предрасуди вградени во моделите за совпаѓање на шаблоните на ML/DL.

Може донекаде да ја искористите познатата или озлогласена поговорка за ѓубре-во ѓубре-излез. Работата е што ова е повеќе слично на предрасуди-во кои подмолно се внесуваат како предрасуди потопени во ВИ. Алгоритмот на одлучување (ADM) на ВИ аксиоматски станува оптоварен со нееднаквости.

Не е добро.

Што друго може да се направи за сето ова?

Да се ​​вратиме на претходно поставената листа за тоа како да се обидете и да се справите со предрасудите на ВИ или токсичната вештачка интелигенција со користење на малку неконвенционален пристап „потребно е да се знае еден“. Потсетете се дека списокот се состоеше од овие суштински точки:

  • Поставете збирки на податоци кои намерно содржат пристрасни и целосно токсични податоци што може да се користат за обука на вештачката интелигенција во врска со тоа што не треба да се прави и/или што да се внимава
  • Користете ги таквите збирки на податоци за да ги обучите моделите за машинско учење (ML) и за длабоко учење (DL) за откривање на предрасуди и за откривање на пресметковни обрасци што предизвикуваат општествена токсичност
  • Применете го обучениот ML/DL за токсичност кон друга вештачка интелигенција за да утврдите дали целната вештачка интелигенција е потенцијално пристрасна и токсична
  • Обезбедете достапен ML/DL обучен за токсичност за да им покаже на градителите на вештачка интелигенција на што треба да внимаваат за да можат лесно да ги прегледаат моделите за да видат како се појавуваат алгоритамски набиени предрасуди
  • Наведете ги опасностите од токсичната вештачка интелигенција како дел од свеста за етика и етичка вештачка интелигенција, сето тоа кажано преку оваа серија на примероци за вештачка интелигенција за деца со проблеми.
  • други

Ќе ја разгледаме одблизу првата од тие истакнати точки.

Поставување збирки на податоци за токсични податоци

Прониклив пример за обид да се воспостават збирки на податоци што содржат непријатни општествени предрасуди е базата на податоци CivilComments од курираната збирка WILDS.

Прво, некоја брза позадина.

WILDS е збирка на податоци со отворен код што може да се користи за обука на ML/DL. Примарната наведена цел на WILDS е тоа што им овозможува на развивачите на вештачка интелигенција да имаат подготвен пристап до податоците што ги претставуваат смени на дистрибуција во различни специфични домени. Некои од домените кои се моментално достапни опфаќаат области како што се животински видови, тумори во живите ткива, густина на главината на пченицата и други домени, како што е ЦивилКоментар, кои моментално ќе ги опишам.

Справувањето со смените во дистрибуцијата е клучен дел од правилното изработка на AI ML/DL системи. Еве го договорот. Понекогаш податоците што ги користите за обука излегуваат дека се сосема различни од податоците за тестирање или „во дивината“ и на тој начин вашиот веројатно обучен ML/DL е отсутен од тоа каков ќе биде реалниот свет. Разумните градители на вештачка интелигенција треба да ги обучуваат своите ML/DL за да се справат со таквите промени во дистрибуцијата. Ова треба да се направи однапред и некако некако да биде изненадување што подоцна бара преуредување на ML/DL по себе.

Како што е објаснето во трудот што го воведува WILDS: „Променетите во дистрибуцијата - каде што распределбата на обуката се разликува од дистрибуцијата на тестот - може значително да ја намалат точноста на системите за машинско учење (ML) распоредени во дивината. И покрај нивната сеприсутност во распоредувањата во реалниот свет, овие поместувања на дистрибуцијата се недоволно застапени во сетови на податоци што широко се користат во ML заедницата денес. За да се справиме со овој јаз, го претставуваме WILDS, куриран репер од 10 збирки на податоци што одразуваат разновидна палета на промени во дистрибуцијата што природно се јавуваат во апликациите во реалниот свет, како што се смените низ болниците за идентификација на туморот; преку стапици со камери за следење на дивиот свет; и низ времето и локацијата во сателитски слики и мапирање на сиромаштија“ (во трудот со наслов „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ од Панг Веи Кох, Шиори Сагава, Хенрик Марклунд, Санг Ксие, Марвин Џанг, Ашај Балсубрамани , Веихуа Ху и други).

Бројот на такви збирки на податоци WILDS продолжува да се зголемува и природата на збирките на податоци генерално се подобрува за да се зајакне вредноста на користењето на податоците за обука за ML/DL.

Базата на податоци на CivilComments е опишана вака: „Автоматскиот преглед на текстот генериран од корисниците - на пр., откривањето токсични коментари - е важна алатка за модерирање на огромниот обем на текст напишан на Интернет. За жал, претходната работа покажа дека таквите класификатори на токсичност откриваат предрасуди во податоците за обуката и лажно ја поврзуваат токсичноста со спомнувањето на одредени демографија. Овие типови на лажни корелации може значително да ги намалат перформансите на моделот на одредени подпопулации. Го проучуваме ова прашање преку модифицирана варијанта на базата на податоци CivilComments“ (како што е објавено на веб-страницата WILDS).

Размислете за нијансите на непријатните објави на Интернет.

Несомнено сте наишле на токсични коментари кога користите речиси секаков вид социјални медиуми. Се чини дека е речиси невозможно за вас магично да избегнете да ја видите острата и бездна содржина што се чини дека е распространета овие денови. Понекогаш вулгарниот материјал е суптилен и можеби треба да читате меѓу редови за да ја разберете суштината на пристрасниот или дискриминаторски тон или значење. Во други случаи, зборовите се бесрамно токсични и не ви треба микроскоп или специјален прстен за декодер за да дознаете што подразбираат пасусите.

CivilComments е база на податоци што беше составена за да се обиде да осмисли AI ML/DL што може пресметковно да открие токсична содржина. Еве на што се фокусираа истражувачите во основата на напорите: „Ненамерната пристрасност во машинското учење може да се манифестира како системски разлики во перформансите за различни демографски групи, што потенцијално ги комбинира постоечките предизвици за правичноста во општеството во целина. Во овој труд, воведуваме пакет на праг-агностички метрики кои обезбедуваат нијансиран приказ на оваа ненамерна пристрасност, со разгледување на различните начини на кои распределбата на бодовите на класификаторот може да варира во одредени групи. Ние, исто така, воведуваме голем нов тест сет на онлајн коментари со прибелешки од толпата извори за референци за идентитетот. Ние го користиме ова за да покажеме како нашите метрики може да се користат за да се најдат нови и потенцијално суптилни ненамерни пристрасност во постоечките јавни модели“ (во трудот со наслов „Нијансана метрика за мерење на ненамерна пристрасност со реални податоци за тест класификација“ од Даниел Боркан, Лукас Диксон, Џефри Соренсен, Нитум Тајн, Луси Васерман).

Ако на ова прашање му дадете некое широко контемплативно размислување, можеби ќе почнете да се прашувате како во светот можете да разликувате што е токсичен коментар наспроти она што не е токсичен коментар. Луѓето можат радикално да се разликуваат во однос на тоа што тие го толкуваат како целосно токсични зборови. Едно лице може да биде навредено од одредена онлајн забелешка или коментар што е објавена на социјалните мрежи, додека некој друг може воопшто да не биде вознемирен. Често се наведува аргументот дека поимот токсичен коментар е целосно нејасен принцип. Тоа е како уметност, каде што вообичаено се вели дека уметноста се разбира само во окото на гледачот, а исто така, пристрасни или токсични забелешки се само во окото на гледачот.

Балдердаш, некои возвраќаат. Секој со разумен ум може да открие дали онлајн забелешката е токсична или не. Не треба да си ракетен научник за да сфатиш кога некоја објавена каустична навреда е исполнета со предрасуди и омраза.

Се разбира, општествените обичаи се менуваат и се менуваат со временски периоди. Она што можеби не беше сфатено како навредливо пред некое време може да се гледа како ужасно погрешно денес. Згора на тоа, работите кажани пред години, а кои некогаш се сметаа за неоправдано пристрасни, може да се реинтерпретираат во светлината на промените во значењата. Во меѓувреме, други тврдат дека токсичниот коментар е секогаш токсичен, без разлика кога бил првично објавен. Може да се тврди дека токсичноста не е релативна, туку е апсолутна.

Прашањето за обидот да се утврди што е токсично, сепак може да биде доста тешка загатка. Можеме да ја удвоиме оваа проблематична работа како да се обидуваме да смислиме алгоритми или вештачка интелигенција што може да утврди која е која. Ако на луѓето им е тешко да направат такви проценки, програмирањето на компјутер е веројатно подеднакво или повеќе проблематично, велат некои.

Еден пристап за поставување на збирки на податоци кои содржат токсична содржина вклучува користење на метод на групно-сорсинг за оценка или проценка на содржината, ерго обезбедување на средства засновани на луѓе за одредување на она што се смета за непријатно и вклучувајќи го етикетирањето во самата база на податоци. AI ML/DL може потоа да ги испита податоците и поврзаното означување што е наведено од човечки оценувачи. Ова, пак, потенцијално може да послужи како средство за пресметковно пронаоѓање на основните математички обрасци. Voila, ML/DL тогаш може да може да предвиди или пресметано да процени дали дадениот коментар веројатно е токсичен или не.

Како што е споменато во цитираниот труд за нијансирани метрики: „Ова означување бара од оценувачите да ја оценат токсичноста на коментарот, избирајќи од „Многу токсичен“, „токсичен“, „тешко да се каже“ и „нетоксичен“. Оцените исто така беа прашани за неколку подтипови на токсичност, иако овие ознаки не беа користени за анализа во оваа работа. Користејќи ги овие техники за оценување, создадовме база на податоци од 1.8 милиони коментари, добиени од онлајн форуми за коментари, кои содржат ознаки за токсичност и идентитет. Додека сите коментари беа означени за токсичност, а подгрупата од 450,000 коментари беа означени како идентитет. Некои коментари означени за идентитет беа претходно избрани со користење на модели изградени од претходни повторувања на етикетирање на идентитетот за да се осигура дека оценувачите на толпата често ќе ја гледаат содржината на идентитетот“ (во цитираниот труд од Даниел Боркан, Лукас Диксон, Џефри Соренсен, Нитум Тајн, Луси Васерман).

Друг пример за цел да се има сетови на податоци што содржат илустративна токсична содржина вклучува напори за обука на разговорни интерактивни системи за обработка на природен јазик (NLP) базирана на вештачка интелигенција. Веројатно сте имале интеракција со НЛП системи како што се Alexa и Siri. Опфатив некои од тешкотиите и ограничувањата на денешниот НЛП, вклучително и особено вознемирувачки пример што се случи кога Алекса им понуди несоодветен и опасен совет на децата, види врската овде.

Една неодамнешна студија се обиде да користи девет категории на социјална пристрасност кои генерално се засноваа на списокот на заштитени демографски карактеристики на EEOC (Комисија за еднакви можности за вработување), вклучувајќи возраст, пол, националност, физички изглед, раса или етничка припадност, религија, статус на попреченост, сексуална ориентација и социо-економски статус. Според истражувачите: „Добро е документирано дека моделите на НЛП ги учат социјалните предрасуди, но малку е направена работа за тоа како овие предрасуди се манифестираат во резултатите од моделот за применети задачи како што е одговарањето на прашања (QA). Го воведуваме Биас Репер за ОК (BBQ), збирка на прашања конструирани од авторите кои ги истакнуваат потврдените социјални предрасуди против луѓето кои припаѓаат на заштитени класи во текот на девет социјални димензии релевантни за контекстите на англиски јазик во САД“ (во труд со наслов „BBQ : Рачно изграден репер за одговарање на прашања“ од Алиша Периш, Анџелика Чен, Никита Нангија, Вишак Падмакумар, Џејсон Фанг, Јана Томпсон, Пу Мон Хтут, Семјуел Р. Бауман).

Поставувањето на збирки на податоци кои намерно содржат пристрасни и целосно токсични податоци е растечки тренд во вештачката интелигенција и е особено поттикнат од појавата на етика за вештачка интелигенција и желбата да се произведе етичка вештачка интелигенција. Тие збирки на податоци може да се користат за обука на моделите за машинско учење (ML) и за длабоко учење (DL) за откривање на предрасуди и за откривање на пресметковни обрасци што предизвикуваат општествена токсичност. За возврат, обучениот ML/DL за токсичност може разумно да се насочи кон други ВИ за да се утврди дали целната ВИ е потенцијално пристрасна и токсична.

Понатаму, достапните системи за ML/DL обучени за токсичност може да се користат за да им се покаже на градителите на вештачка интелигенција на што треба да внимаваат за да можат лесно да ги проверат моделите за да видат како се појавуваат алгоритамски набиени предрасуди. Севкупно, овие напори можат да ги прикажат опасностите од токсичната вештачка интелигенција како дел од етика на вештачката интелигенција и свесноста за етичката вештачка интелигенција.

Во овој момент од оваа тешка дискусија, би се обложил дека сакате некои дополнителни илустративни примери кои би можеле да ја покажат оваа тема. Постои посебен и сигурно популарен сет на примери кои ми се при срце. Гледате, во моето својство како експерт за вештачка интелигенција, вклучувајќи ги етичките и правните последици, често ми се бара да идентификувам реални примери кои ги прикажуваат дилемите за етика на вештачката интелигенција, така што малку теоретската природа на темата може полесно да се сфати. Едно од најевокативните области што сликовито ја прикажува оваа етичка дилема за вештачката интелигенција е појавата на вистински самоуправувачки автомобили базирани на вештачка интелигенција. Ова ќе послужи како практичен случај или пример за обилна дискусија на темата.

Еве потоа едно важно прашање за кое вреди да се размисли: Дали доаѓањето на вистинските самоуправувачки автомобили засновани на вештачка интелигенција осветлува нешто во врска со корисноста да се има сетови на податоци за да се смисли токсична вештачка интелигенција, и ако е така, што покажува ова?

Дозволете ми малку да го отпакувам прашањето.

Прво, забележете дека нема човек возач вклучен во вистински самоуправувачки автомобил. Имајте на ум дека вистинските самоуправувачки автомобили се возат преку систем за возење со вештачка интелигенција. Нема потреба од човек возач на воланот, ниту пак постои одредба за човек да управува со возилото. За моето опширно и тековно покривање на автономните возила (АВ) и особено самоуправувачките автомобили, видете врската овде.

Би сакал дополнително да објаснам што се мисли кога се однесувам на вистинските самоуправувачки автомобили.

Разбирање на нивоата на самовозечки автомобили

Како појаснување, вистинските самоуправувачки автомобили се оние каде што вештачката интелигенција го вози автомобилот целосно самостојно и нема никаква човечка помош за време на задачата за возење.

Овие возила без возач се сметаат за Ниво 4 и Ниво 5 (видете го моето објаснување на оваа врска тука), додека автомобилот што бара човечки возач да го дели напорот во возењето обично се разгледува на Ниво 2 или Ниво 3. Автомобилите што заеднички ја делат задачата за возење се опишани како полуавтономни и обично содржат различни автоматизирани додатоци кои се наведени како ADAS (Advanced Driver-Assistance Systems).

Сè уште нема вистински самоуправувачки автомобил на Ниво 5, а сè уште не знаеме дали тоа ќе биде можно да се постигне, ниту колку време ќе биде потребно за да стигнеме до таму.

Во меѓувреме, напорите на Ниво 4 постепено се обидуваат да добијат одредена влечна сила преку подложени на многу тесни и селективни испитувања на јавни патишта, иако има контроверзии околу тоа дали ова тестирање треба да биде дозволено само по себе (сите сме заморчиња за живот или смрт во експеримент кои се одвиваат на нашите автопати и патни патишта, некои тврдат, видете ја мојата покриеност на оваа врска тука).

Бидејќи полуавтономните автомобили бараат човечки возач, усвојувањето на тие типови автомобили нема да биде значително различно од возењето на конвенционалните возила, така што нема многу нови за да се покријат околу нив на оваа тема (иако, како што ќе видите во еден момент, следните поени се генерално применливи).

За полу-автономни автомобили, важно е јавноста да се предупреди за вознемирувачки аспект што се појавува во последно време, имено дека и покрај оние човечки возачи кои продолжуваат да објавуваат видеа од себе, заспиваат на воланот на автомобил Ниво 2 или Ниво 3 , сите треба да избегнеме да бидеме во заблуда во тоа да веруваме дека возачот може да им го одземе вниманието од возачката задача додека возите полу-автономен автомобил.

Вие сте одговорна страна за постапките на возење на возилото, без оглед на тоа колку автоматизација може да се фрли на Ниво 2 или Ниво 3.

Самоуправувачки автомобили и управување без токсична вештачка интелигенција

За вистинските самостојни возила на ниво 4 и ниво 5, нема да има човечки возач вклучен во возачката задача.

Сите патници ќе бидат патници.

АИ го прави возењето.

Еден аспект за веднаш да се дискутира подразбира фактот дека ВИ вклучениот во денешните системи за возење со ВИ не е чувствителен. Со други зборови, ВИ е целосно колектив на компјутерско базирање на програмирање и алгоритми, и сигурно не е во можност да расудува на ист начин како што можат луѓето.

Зошто овој дополнителен акцент е дека АИ не е чувствителен?

Бидејќи сакам да истакнам дека кога разговарам за улогата на системот за возење со АИ, не му припишувам човечки квалитети на АИ. Ве молиме, бидете свесни дека постои постојана и опасна тенденција овие денови да се антропоморфизира АИ. Во суштина, луѓето му даваат чувство слично на човекот на денешната ВИ, и покрај непобитен и неоспорен факт дека такво АИ сè уште не постои.

Со тоа појаснување, можете да замислите дека системот за возење со ВИ нема на некој начин да „знае“ за аспектите на возењето. Возењето и сето она што го вклучува ќе треба да се програмираат како дел од хардверот и софтверот на автомобилот што управува самостојно.

Ајде да се нурнеме во огромен број аспекти што можат да се појават на оваа тема.

Прво, важно е да сфатите дека не се сите самоуправувачки автомобили со вештачка интелигенција исти. Секој производител на автомобили и технолошка фирма за самоуправување го презема својот пристап кон осмислување на самоуправувачки автомобили. Како такво, тешко е да се дадат опсежни изјави за тоа што ќе прават или не прават системите за возење со вештачка интелигенција.

Понатаму, секогаш кога се наведува дека системот за возење со вештачка интелигенција не прави одредена работа, ова подоцна, може да го надминат програмерите кои всушност го програмираат компјутерот да го стори токму тоа. Чекор по чекор, системите за возење со вештачка интелигенција постепено се подобруваат и прошируваат. Постојното ограничување денес можеби повеќе нема да постои во идна итерација или верзија на системот.

Се надевам дека тоа обезбедува доволна литанија на предупредувања за да биде основата на она што ќе го кажам.

Постојат бројни потенцијални и некогаш веројатно да се остварат предрасуди вметнати од вештачка интелигенција кои ќе се соочат со појавата на автономни возила и самоуправувачки автомобили, видете ја на пример мојата дискусија на врската овде врската овде. Сè уште сме во раните фази на пуштање во употреба на самоуправувачки автомобили. Сè додека усвојувањето не достигне доволен обем и видливост, голем дел од токсичните аспекти на вештачката интелигенција за кои предвидував дека на крајот ќе се појават сè уште не се лесно видливи и сè уште не го привлекоа широкото внимание на јавноста.

Размислете за една навидум едноставна работа поврзана со возењето што на почетокот може да изгледа сосема безопасно. Поточно, ајде да испитаме како правилно да одредиме дали да застанеме за да чекаат „самољубиви“ пешаци кои немаат право на првенство да минат улица.

Несомнено сте возеле и наидовте на пешаци кои чекаа да ја преминат улицата, а сепак немаа првенство на минување да го сторат тоа. Ова значеше дека имавте дискреција дали да застанете и да ги оставите да преминат. Може да продолжите без да им дозволите да преминат и сепак да бидете целосно во рамките на законските правила за возење за тоа.

Студиите за тоа како човечките возачи одлучуваат да застанат или да не застанат за такви пешаци сугерираат дека понекогаш луѓето возачи го прават изборот врз основа на непристрасни предрасуди. Човечкиот возач може да го погледне пешакот и да избере да не застане, иако ќе застане ако пешакот имаше поинаков изглед, како на пример врз основа на раса или пол. Го испитав ова во врската овде.

Како ќе се програмираат системите за возење со вештачка интелигенција за да го донесат истиот вид на одлука за застанување или оди?

Може да изјавите дека сите системи за возење со вештачка интелигенција треба да бидат програмирани да секогаш застануваат за пешаците кои чекаат. Ова во голема мера ја поедноставува работата. Навистина не треба да се донесе никаква необична одлука. Ако пешакот чека да премине, без разлика дали има првенство на минување или не, погрижете се самоуправувачкиот автомобил со вештачка интелигенција да запре за да може пешакот да помине.

Лесно-кикиритка.

Животот никогаш не е толку лесен, изгледа. Замислете дека сите самоуправувачки автомобили го почитуваат ова правило. Пешаците неизбежно ќе сфатат дека системите за возење со вештачка интелигенција се, да речеме, притисни. Секој и сите пешаци кои сакаат да ја поминат улицата, сакале-несакаат ќе го направат тоа, кога сакаат и каде и да се.

Да претпоставиме дека самоуправувачки автомобил се спушта по брза улица со објавената брзина од 45 милји на час. Пешакот „знае“ дека вештачката интелигенција ќе го запре самоуправувачкиот автомобил. Значи, пешакот стрела на улица. За жал, физиката победи над вештачката интелигенција. Системот за возење со вештачка интелигенција ќе се обиде да го запре самоуправувачкиот автомобил, но динамиката на автономното возило ќе го однесе мултитонскиот конструктор напред и ќе се забие во своеволен пешак. Резултатот е или штетен или предизвикува смрт.

Пешаците обично не го пробуваат ваквото однесување кога на воланот има човек возач. Секако, во некои места се случува војна на очното јаболко. Пешак му удира на возачот. Возачот му удира на пешакот. Во зависност од околностите, возачот може да застане или возачот може да го тврди своето тврдење на коловозот и навидум да се осмели на пешакот да се обиде да му го попречи патот.

Веројатно не сакаме вештачката интелигенција да влезе во слична војна на очното јаболко, што исто така е малку предизвикувачко во секој случај, бидејќи нема човек или робот кој седи на воланот на самоуправувачкиот автомобил (дискутирав за идната можност за роботи тоа возење, види врската овде). Сепак, не можеме да им дозволиме на пешаците секогаш да повикуваат истрели. Исходот може да биде катастрофален за сите засегнати.

Тогаш може да бидете во искушение да свртите на другата страна на оваа паричка и да изјавите дека системот за возење со вештачка интелигенција никогаш не треба да запре во такви околности. Со други зборови, ако пешакот нема соодветно право на првенство да ја премине улицата, вештачката интелигенција секогаш треба да претпоставува дека самоуправувачкиот автомобил треба да продолжи со несмалено темпо. Тешка среќа за тие пешаци.

Таквото строго и поедноставено правило нема да биде добро прифатено од јавноста во целост. Луѓето се луѓе и нема да сакаат да бидат целосно затворени за да можат да ја преминат улицата, и покрај тоа што законски немаат право да го сторат тоа во различни услови. Можете лесно да очекувате голема врева од јавноста и евентуално да видите како се појавуваат реакции против континуираното усвојување на самоуправувачки автомобили.

Проклето ако го правиме тоа, и проклето ако не го правиме тоа.

Се надевам дека ова ве доведе до разумна алтернатива дека вештачката интелигенција треба да се програмира со привидно одлучување за тоа како да се справите со овој проблем со возењето. Тешкото и брзо правило никогаш да не се запре е неодржливо, а исто така, тешко и брзо правило секогаш да се запре е исто така неодржливо. Вештачката интелигенција треба да се смисли со некое алгоритамско одлучување или ADM за да се справи со ова прашање.

Може да се обидете да користите база на податоци заедно со пристапот ML/DL.

Еве како развивачите на вештачка интелигенција би можеле да одлучат да ја програмираат оваа задача. Тие собираат податоци од видео камери кои се поставени насекаде низ одреден град каде што ќе се користи самоуправувачкиот автомобил. Податоците покажуваат кога човечките возачи одлучуваат да застанат за пешаци кои немаат првенство на минување. Сето тоа е собрано во база на податоци. Со користење на машинско учење и длабоко учење, податоците се моделираат пресметковно. Системот за возење со вештачка интелигенција потоа го користи овој модел за да одлучи кога да запре или да не запре.

Општо земено, идејата е дека од што и да се состои локалниот обичај, вака вештачката интелигенција го насочува самоуправувачкиот автомобил. Проблемот е решен!

Но, дали е навистина решено?

Потсетете се дека веќе истакнав дека постојат истражувачки студии кои покажуваат дека луѓето возачи можат да бидат пристрасни во изборот кога да застанат за пешаците. Собраните податоци за одреден град веројатно ќе ги содржат тие предрасуди. AI ML/DL врз основа на тие податоци потоа најверојатно ќе ги моделира и одразува истите тие предрасуди. Системот за возење со вештачка интелигенција само ќе ги спроведе истите постоечки предрасуди.

За да се обидеме да се справиме со проблемот, би можеле да составиме база на податоци што всушност има такви предрасуди. Ние или наоѓаме таква база на податоци и потоа ги означуваме пристрасноста или синтетички создаваме база на податоци за да помогнеме во илустрацијата на материјата.

Ќе бидат преземени сите претходно идентификувани чекори, вклучувајќи:

  • Поставете база на податоци што намерно ја содржи оваа конкретна пристрасност
  • Користете ја базата за да ги обучите моделите за машинско учење (ML) и за длабоко учење (DL) за откривање на оваа специфична пристрасност
  • Применете го ML/DL обучениот со пристрасност кон друга вештачка интелигенција за да утврдите дали целната вештачка интелигенција е потенцијално пристрасна на ист начин
  • Оставете го на располагање ML/DL обучениот за пристрасност за да им покаже на градителите на вештачка интелигенција на што треба да внимаваат за да можат лесно да ги прегледаат нивните модели за да видат како се појавуваат алгоритамски набиени предрасуди
  • Наведете ги опасностите од пристрасната вештачка интелигенција како дел од свеста за етика и етичка вештачка интелигенција преку овој додаден специфичен пример
  • други

Заклучок

Ајде повторно да ја разгледаме линијата за отворање.

Потребно е да се знае еден.

Некои толкуваат дека оваа неверојатно распространета изрека имплицира дека кога станува збор за откривање на токсична вештачка интелигенција, треба да му дадеме должна доверба на градењето и користењето на токсичната вештачка интелигенција за откривање и справување со друга токсична вештачка интелигенција. Крајна линија: Понекогаш е потребно крадец да фати друг крадец.

Изразена загриженост е дека можеби правиме крадци. Дали сакаме да осмислиме вештачка интелигенција која е токсична? Зарем тоа не изгледа како луда идеја? Некои жестоко тврдат дека треба да ја забраниме сета токсична вештачка интелигенција, вклучително и таквата вештачка интелигенција што е свесно изградена дури и ако наводно е херојска или галантна. AI за добро цел.

Исчистете ја токсичната вештачка интелигенција во која било паметна или подмолна маска што може да се појави.

Еден последен пресврт на оваа тема засега. Генерално претпоставуваме дека оваа позната реплика има врска со луѓе или работи кои прават лоши или кисели дела. На тој начин се спуштаме на идејата дека е потребен крадец за да се фати крадец. Можеби треба да ја свртиме оваа поговорка и да ја направиме повеќе среќно лице отколку тажно лице.

Еве како.

Ако сакаме вештачка интелигенција која е непристрасна и нетоксична, може да се замисли дека е потребно да се знае. Можеби е потребно најдоброто и најдоброто за да се препознае и да се роди дополнителна големина и добрина. Во оваа варијанта на мудрската мудрост, ние го задржуваме погледот на среќното лице и се стремиме да се концентрираме на смислување AI за добро.

Тоа би било порасположено и позадоволително весело гледиште за тоа што е потребно човек да знае едно, ако знаеш на што мислам.

Извор: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- корисни-вклучувајќи-за-оние-автономни-само-возечки-автомобили/