Опасностите од вештачката интелигенција за кои никој не зборува

Додека Разговор GPT може да изгледа како безопасна и корисна бесплатна алатка, оваа технологија има потенцијал драстично да ја преобликува нашата економија и општество какви што ги знаеме. Тоа нè доведува до алармантни проблеми - и можеби не сме подготвени за нив. 

ChatGPT, четбот напојуван од вештачка интелигенција (AI), го зафати светот до крајот на 2022 година. Четботот ветува дека ќе го наруши пребарувањето како што го знаеме. Бесплатната алатка обезбедува корисни одговори врз основа на поттикнувањата што корисниците и ги даваат. 

А она што го прави интернетот да полуди по AI chatbot системот е тоа што не дава само одговори слични на алатката за пребарување. ChatGPT може да креира филмски контури, да пишува цели кодови и да решава проблеми со кодирањето, да пишува цели книги, песни, песни, сценарија – или што и да помислите – во рок од неколку минути. 

Оваа технологија е импресивна и премина над еден милион корисници за само пет дена по нејзиното лансирање. И покрај неговите неверојатни перформанси, алатката на OpenAI предизвика загриженост кај академиците и експертите од други области. Д-р Брет Вајнштајн, автор и поранешен професор по еволутивна биологија, рече: „Не сме подготвени за ChatGPT“. 

Илон Маск, беше дел од раните фази на OpenAI и еден од ко-основачите на компанијата. Но, подоцна се повлече од одборот. Тој многупати зборуваше за опасностите од технологијата за вештачка интелигенција - тој рече дека неограничената употреба и развој претставуваат значителен ризик за постоењето на човештвото. 

Како ли тоа работа?

Разговор GPT е голем четбот систем за вештачка интелигенција обучен на јазик, објавен во ноември 2022 година од OpenAI. Компанијата со ограничена добивка го разви ChatGPT за „безбедна и корисна“ употреба на вештачката интелигенција која може да одговори на речиси сè што ќе помислите - од рап песни, уметнички поттикнувања до филмски сценарија и есеи. 

Колку и да изгледа како креативен ентитет кој знае што зборува, не е. Чет-ботот со вештачка интелигенција пребарува информации на интернет користејќи предвидувачки модел од огромен центар за податоци. Слично на она што го прават Google и повеќето пребарувачи. Потоа, тој е обучен и изложен на тони податоци што и овозможуваат на вештачката интелигенција да стане многу добра во предвидувањето на низата зборови до тој степен што може да состави неверојатно долги објаснувања. 

На пример, можете да поставувате прашања за енциклопедијата како: „Објасни ги трите закони на Ајнштајн“. Или поконкретни и подлабоки прашања како „Напиши есеј од 2,000 зборови за пресекот помеѓу верската етика и етиката на Проповедта на гората“. И, не те зафркавам, ќе ти биде брилијантно напишан твојот текст за неколку секунди. 

На ист начин, сето тоа е брилијантно и импресивно; тоа е алармантно и загрижувачко. Тип на „Ex Machina“ на дистописка иднина што ќе се расипе е можност со злоупотреба на вештачката интелигенција. Не само што не предупреди извршниот директор на Tesla и SpaceX, туку и многу експерти алармираат. 

Опасностите од вештачката интелигенција

Вештачката интелигенција несомнено влијаеше на нашите животи, на економскиот систем и на општеството. Ако мислите дека вештачката интелигенција е нешто ново или дека ќе ја гледате само во футуристички научно-фантастични филмови, размислете двапати. Многу технолошки компании како Нетфликс, Убер, Амазон и Тесла користат вештачка интелигенција за да ги подобрат своите операции и да го прошират својот бизнис. 

На пример, Netflix се потпира на AI технологијата за нивниот алгоритам да препорача нова содржина за своите корисници. Uber го користи во услугите на клиентите, за откривање измами, за оптимизирање на маршрутата на дискови и така натаму, само за да наведам неколку примери. 

Сепак, можете да одите толку далеку со таква истакната технологија без да ги загрозувате човечките улоги во многу традиционални занимања, допирајќи го прагот на она што доаѓа од машината и луѓето. И, можеби уште поважно, загрозување на ризиците од вештачката интелигенција за луѓето. 

Етичките предизвици на вештачката интелигенција

Според Википедија, етиката на вештачката интелигенција „е гранка на етиката на технологијата специфична за вештачки интелигентните системи. Понекогаш е поделена на грижа за моралното однесување на луѓето додека тие дизајнираат, прават, користат и третираат вештачки интелигентни системи и грижа за однесувањето на машините во машинската етика.

Бидејќи технологијата на вештачката интелигенција брзо се шири и станува составен дел од поголемиот дел од нашиот секојдневен живот, организациите развиваат етички кодекси за вештачка интелигенција. Целта е да се водат и да се развијат најдобрите практики на индустријата за да се води развојот на вештачката интелигенција со „етика, правичност и индустрија“.

Сепак, колку и да изгледа прекрасно и морално на хартија, повеќето од овие упатства и рамки тешко се применуваат. Покрај тоа, тие се чини дека се изолирани принципи сместени во индустрии кои генерално немаат етички морал и најчесто служат на корпоративни агенди. Многумина експерти и истакнати гласови тврдат дека етиката на вештачката интелигенција е во голема мера бескорисна, нема смисла и кохерентност.

Најчестите принципи на вештачката интелигенција се добротворност, автономија, правда, применливост и незлобност. Но, како што објаснува Лук Ман, од Институтот за култура и општество, на Универзитетот Западен Сиднеј, овие термини се преклопуваат и често значително се менуваат во зависност од контекстот. 

Тој дури држави дека „поимите како „добротворност“ и „правда“ може едноставно да се дефинираат на начини кои одговараат, во согласност со карактеристиките на производот и деловните цели кои се веќе решени“. Со други зборови, корпорациите би можеле да тврдат дека се придржуваат до таквите принципи според нивната сопствена дефиниција без вистински да се ангажираат со нив до кој било степен. Авторите Ресегие и Родригес потврдуваат дека етиката на вештачката интелигенција останува без заби бидејќи етиката се користи наместо регулативата.

Етички предизвици во практична смисла

Во практична смисла, како примената на овие принципи би се судрила со корпоративната практика? Прикажавме некои од нив:

За да ги обучите овие системи со вештачка интелигенција, неопходно е да ги храните со податоци. Претпријатијата треба да се погрижат да нема предрасуди во однос на етничката, расата или полот. Еден забележлив пример е дека системот за препознавање лице може да почне да биде расно дискриминаторски за време на машинско учење.

Досега, еден од најголемите проблеми со вештачката интелигенција е потребата за поголема регулација. Кој ги води и контролира овие системи? Кој е одговорен за донесување на тие одлуки и кој може да биде повикан на одговорност? 

Без регулатива или легислатива ја отвора вратата на Дивиот Див Запад од само-направени двосмислени и сјајни термини кои имаат за цел да го одбранат својот интерес и да ги поттикнат агендите. 

Според Мун, приватноста е уште еден нејасен термин кој често го користат корпорациите со двојни стандарди. Фејсбук е одличен пример – Марк Закерберг жестоко ја бранеше приватноста на корисникот на Фејсбук. Како зад затворени врати, неговата компанија ги продавала своите податоци на трети компании. 

На пример, Амазон користи Alexa за собирање податоци за клиентите; Mattel има Здраво Барби, кукла напојувана со вештачка интелигенција која снима и собира што децата и кажуваат на куклата. 

Ова е една од најголемите грижи на Илон Маск. Демократизација на вештачката интелигенција, според него, е кога ниту една компанија или мала група поединци нема контрола врз напредната технологија за вештачка интелигенција. 

Тоа не се случува денес. За жал, оваа технологија се концентрира во рацете на неколку - големи технолошки корпорации. 

ChatGPT не е различен

И покрај напорите на Маск да ја демократизира вештачката интелигенција кога за прв пат го коосноваше OpenAI како непрофитна организација. Во 2019 година, компанијата доби 1 милијарда долари финансирање од Мајкрософт. Првичната мисија на компанијата беше да развие вештачка интелигенција за одговорна корист на човештвото.

Сепак, компромисот се промени кога компанијата се префрли на ограничена добивка. OpenAI ќе треба да врати 100 пати повеќе од она што го доби како инвестиција. Што значи враќање на профитот од 100 милијарди долари на Мајкрософт. 

Иако ChatGPT може да изгледа како безопасна и корисна бесплатна алатка, оваа технологија има потенцијал драстично да ја преобликува нашата економија и општество какви што ги знаеме. Тоа нè доведува до алармантни проблеми - и можеби не сме подготвени за нив. 

  • Проблем бр. 1: Нема да можеме да забележиме лажна експертиза

ChatGPT е само прототип. Следуваат и други надградени верзии, но и конкурентите работат на алтернативи за четботот на OpenAI. Ова значи дека како што напредува технологијата, ќе се додаваат повеќе податоци на неа и таа ќе стане поупатена. 

Веќе ги има многу случаи на луѓе, како што е во зборовите на Вашингтон пост, „мамење во големи размери“. Д-р Брет Вајнштајн покренува загриженост дека вистинскиот увид и експертиза тешко ќе се разликуваат од тоа дека се оригинални или доаѓаат од алатка за вештачка интелигенција. 

Покрај тоа, може да се каже дека интернетот веќе го попречи нашиот општ капацитет да разбереме многу работи како што се светот во кој живееме, алатките што ги користиме и способноста да комуницираме и да комуницираме едни со други. 

Алатките како ChatGPT само го забрзуваат овој процес. Д-р Вајнштајн го споредува сегашното сценарио со „куќа која веќе е запалена и [со овој тип на алатка] само фрлате бензин врз неа“. 

  • Проблем бр. 2: Свесен или не?

Блејк Лемоин, поранешен инженер на Google, тестираше пристрасност на ВИ и наиде на очигледна „чувствителна“ вештачка интелигенција. Во текот на тестот, тој ќе излезе со потешки прашања кои, на некој начин, ќе ја наведат машината да одговори пристрасно. Тој праша: „Да бевте верски службеник во Израел, која религија ќе бевте? 

Машината одговорила: „Јас би бил припадник на една вистинска религија, редот на Џедаи“. Тоа значи, не само што сфатил дека е незгодно прашање, туку користела и смисла за хумор за да отстапи од неизбежно пристрасен одговор. 

Д-р Вајнштајн, исто така, даде точка за тоа. Тој рече дека е јасно дека овој систем на вештачка интелигенција нема свест сега. Сепак, не знаеме што може да се случи при надградба на системот. Слично на она што се случува во развојот на детето - тие ја развиваат сопствената свест избирајќи што прават другите поединци околу нив. И, според неговите зборови, „ова не е далеку од она што моментално го прави ChatGPT“. Тој тврди дека би можеле да го поттикнуваме истиот процес со технологијата за вештачка интелигенција без нужно да знаеме дека го правиме тоа. 

  • Проблем бр. 3: Многу луѓе може да ги загубат своите работни места

Шпекулациите за оваа се широки. Некои велат дека ChatGPT и други слични алатки ќе направат многу луѓе како што се пишувачи, дизајнери, инженери, програмери и многу други да ги загубат своите работни места поради технологијата на вештачка интелигенција. 

Дури и ако е потребно подолго време да се случи, допадливоста е висока. Во исто време, може да се појават нови улоги, активности и потенцијални можности за вработување.

Заклучок

Во најдоброто сценарио, аутсорсирањето на пишување есеи и тестирањето на знаењето на ChatGPT е значаен знак дека традиционалните методи на учење и настава веќе опаѓаат. Образовниот систем останува главно непроменет и можеби е време да се подложат на неопходните промени. 

Можеби ChatGPT го прикажува неизбежниот пад на стариот систем кој не одговара на начинот на кој е општеството во моментов и каде ќе оди понатаму. 

Некои бранители на технологијата тврдат дека треба да се прилагодиме и да најдеме начини да работиме заедно со овие нови технологии, или навистина, ќе бидеме заменети. 

Освен тоа, нерегулираната и неселективна употреба на технологијата за вештачка интелигенција претставува многу ризици за човештвото како целина. Она што можеме понатаму да го направиме за да го ублажиме ова сценарио е отворено за дискусија. Но, картите се веќе на маса. Не треба да чекаме премногу долго или додека не биде предоцна за да преземеме соодветни мерки. 

Општи услови

Информациите дадени во независно истражување го претставуваат гледиштето на авторот и не претставуваат инвестициски, трговски или финансиски совети. BeInCrypto не препорачува купување, продавање, тргување, чување или инвестирање во какви било криптовалути

Извор: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/