3 причини зошто на вашата организација ќе и требаат надворешни проценувачи на алгоритми

Од Сата Сарма-Хајтауер

Бизнис лидерите ја истиснуваат сета вредност што можат од вештачката интелигенција (ВИ). Студијата на КПМГ од 2021 година открива Мнозинството од владините, индустриското производство, финансиските услуги, трговијата на мало, науката за животот и здравствените бизнис лидери велат дека вештачката интелигенција е барем умерено функционална во нивните организации. Студијата исто така открива дека половина од испитаниците велат дека нивната организација го забрзала усвојувањето на вештачката интелигенција како одговор на пандемијата „Ковид-19“. Во организациите каде што е усвоена вештачката интелигенција, најмалку половина велат дека технологијата ги надминала очекувањата.

Алгоритмите за вештачка интелигенција се повеќе одговорни за различни денешни интеракции и иновации - од персонализирани препораки за производи услуги на клиентите искуства на банките“ одлуки за заеми па дури и полициска реакција.

Но, и покрај сите придобивки што ги нудат, алгоритмите за вештачка интелигенција доаѓаат со големи ризици доколку не се ефикасно следени и оценети за еластичност, правичност, објаснување и интегритет. За да им се помогне на деловните лидери во следењето и оценувањето на вештачката интелигенција, студијата наведена погоре покажува дека а Се поголем број деловни лидери сакаат владата да ја регулира вештачката интелигенција со цел да им овозможи на организациите да инвестираат во вистинската технологија и деловни процеси. За потребната поддршка и надзор, мудро е да се земат предвид надворешните проценки понудени од давател на услуги со искуство во обезбедувањето такви услуги. Еве три причини зошто.

1. Алгоритмите се „црни кутии“

Алгоритмите за вештачка интелигенција - кои учат од податоци за да решаваат проблеми и да ги оптимизираат задачите - ги прават системите попаметни, овозможувајќи им да собираат и генерираат увид многу побрзо отколку што луѓето некогаш би можеле.

Сепак, некои засегнати страни сметаат дека овие алгоритми се „црни кутии“, објаснува Дру Розен, извршен директор за ревизија во КПМГ, водечка фирма за професионални услуги. Поточно, одредени засегнати страни можеби не разбираат како алгоритмот дошол до одредена одлука и затоа можеби не се сигурни во правичноста или точноста на таа одлука.

„Резултатите добиени од алгоритмот може да бидат склони кон пристрасност и погрешно толкување на резултатите“, вели Розен. „Тоа, исто така, може да доведе до одредени ризици за ентитетот бидејќи тие ги користат тие резултати и ги споделуваат со јавноста и нивните засегнати страни“.

Алгоритам кој користи погрешни податоци, на пример, е неефикасен во најдобар случај - и штетен во најлош случај. Како тоа може да изгледа во пракса? Размислете за чет-бот заснован на вештачка интелигенција кој обезбедува погрешни информации за сметката на корисниците или автоматизирана алатка за превод на јазик што непрецизно преведува текст. И двата случаи може да резултираат со сериозни грешки или погрешни толкувања за владините ентитети или компании, како и за конституентите и клиентите кои се потпираат на одлуките донесени од тие алгоритми.

Друг придонесувач за проблемот со црната кутија е кога инхерентната пристрасност навлегува во развојот на модели на вештачка интелигенција, што потенцијално предизвикува пристрасно донесување одлуки. Кредитните заемодавачи, на пример, се повеќе користат вештачка интелигенција за да ја предвидат кредитната способност на потенцијалните заемопримачи со цел да донесат одлуки за кредитирање. Сепак, може да се појави ризик кога клучните влезни податоци во вештачката интелигенција, како што е кредитниот резултат на потенцијалниот заемопримач, има материјална грешка, што доведе до тоа на оние поединци да им бидат одбиени заеми.

Ова ја нагласува потребата од надворешен оценувач кој може да послужи како непристрасен оценувач и да обезбеди фокусирана проценка, врз основа на прифатените критериуми, на релевантноста и веродостојноста на историските податоци и претпоставки кои го напојуваат алгоритамот.

2. Засегнатите страни и регулаторите бараат транспарентност

Во 2022 година, немаше тековни барања за известување за одговорна вештачка интелигенција. Сепак, вели Розен, „исто како и како раководните тела воведоа регулатива за ESG [еколошки, социјални и управување] извештај за одредени ESG метрика, само прашање на време е да видиме дополнителни барања за известување за регулатива за одговорна вештачка интелигенција“.

Всушност, стапува на сила од 1 јануари 2023 година, во Њујорк Локален закон 144 бара да се спроведе ревизија на пристрасност на автоматизирана алатка за одлучување за вработување пред да се користи.

И на федерално ниво, на Закон за национална иницијатива за вештачка интелигенција од 2020 година— што се надоврзува на а Извршен налог од 2019 година— се фокусира на техничките стандарди и насоки за вештачка интелигенција. Дополнително, на Закон за алгоритамска отчетност може да бара проценка на влијанието на автоматизираните системи за одлучување и зголемени критични процеси на одлучување. И во странство, на Закон за вештачка интелигенција е предложена, нудејќи сеопфатна регулаторна рамка со специфични цели за безбедност на вештачката интелигенција, усогласеност, управување и доверливост.

Со овие промени, организациите се под микроскоп на управување. Проценувачот на алгоритам може да обезбеди такви извештаи кои се однесуваат на регулаторните барања и ја подобруваат транспарентноста на засегнатите страни, истовремено избегнувајќи го ризикот дека засегнатите страни погрешно протолкуваат или заведени според резултатите од проценката.

3. Компаниите имаат корист од долгорочното управување со ризик

Стив Камара, партнер во практиката за технолошки гаранции на KPMG, предвидува дека инвестициите во вештачката интелигенција ќе продолжат да растат додека ентитетите продолжуваат со автоматизирање на процесите, развивање иновации кои го подобруваат искуството на клиентите и дистрибуираат развој на вештачка интелигенција низ деловните функции. За да останат конкурентни и профитабилни, на организациите ќе им требаат ефективни контроли кои не само што ги решаваат непосредните недостатоци на вештачката интелигенција, туку и ги намалуваат сите долгорочни ризици поврзани со деловните операции поттикнати од вештачка интелигенција.

Ова е местото каде што надворешните оценувачи влегуваат како доверлив, такт ресурс. Бидејќи организациите сè повеќе го прифаќаат интегритетот на вештачката интелигенција како деловно овозможување, партнерството може да стане помалку ад хок услуга и повеќе конзистентна соработка, објаснува Камара.

„Гледаме пат напред каде што ќе треба да има постојана врска помеѓу организациите кои развиваат и операционализираат вештачка интелигенција на тековна основа и објективен надворешен проценител“, вели тој.

Поглед кон она што следува

Во иднина, организациите би можеле да користат надворешни проценки на повеќе циклична основа додека развиваат нови модели, внесуваат нови извори на податоци, интегрираат решенија за продавачи од трета страна или навигираат со нови барања за усогласеност, на пример.

Кога се наложуваат дополнителни регулативи и барања за усогласеност, надворешните оценувачи може да можат да обезбедат услуги за директно да проценат колку добро организацијата распоредила или користела вештачка интелигенција во однос на тие барања. Овие оценувачи тогаш би биле најдобро позиционирани да ги споделат резултатите од оценувањето на јасен и конзистентен начин.

За да профитира од технологијата, а истовремено да се заштити од нејзините ограничувања, организацијата мора да бара надворешни оценувачи за да обезбедат извештаи на кои потоа може да се потпре за да покаже поголема транспарентност при примена на алгоритми. Оттука, и организацијата и засегнатите страни можат подобро да ја разберат моќта на вештачката интелигенција - и нејзините ограничувања.

Извор: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/