Дали изложувањето и евидентирањето на тие погрешни и халуцинаторни излези од генеративна вештачка интелигенција прави нешто добро, прашува етика и закон за вештачка интелигенција

Ве чека тајна.

Да, има нешто тајно се случува зад сцената за најновото во вештачката интелигенција за кое можеби сакате да знаете.

Во денешната колумна, ќе го испитам неодамнешниот поттик за составување на наводни грешки и други болести поврзани со излезените есеи од апликација за вештачка интелигенција позната како ChatGPT. Оваа конкретна апликација користи тип на вештачка интелигенција наречена Генеративна АИ. Веројатно сте слушнале или виделе привлечни наслови за вештачката интелигенција и ChatGPT базирана на генерација. Веста е навредлива поради оваа специфична апликација за вештачка интелигенција и навидум зачудувачките способности кои се однесуваат на овој тип на вештачка интелигенција.

Како што ќе објавам во еден момент, некои силно веруваат дека треба да воспоставиме листа за какви видови грешки или грешки може да произведе апликацијата за вештачка интелигенција кога ќе генерира есеј за вас. Други сугерираат дека иако идејата за таква листа е восхитувачка, таа е вежба за залудност и ќе донесе многу малку плод.

Ќе ги испитаме двете страни на таа жестока дебата.

Прво, ајде да се увериме дека сите сме на иста страница за тоа од што се состои Генеративната вештачка интелигенција, а исто така и за што е ChatGPT.

ChatGPT е интерактивен систем за разговорно ориентиран кон вештачка интелигенција за општа намена, во суштина навидум безопасен општ чет-бот, сепак, тој активно и страсно се користи од страна на луѓето на начини што ги фаќаат многумина целосно невнимателни. Сè што треба да направите за да го користите овој тип на вештачка интелигенција е да внесете известување и апликацијата за вештачка интелигенција ќе генерира за вас есеј што ќе се обиде да одговори на вашето барање.

За жал, ова може да се користи на малку или неетички или подмолни начини. Посебно вознемирувачко прашање е тоа што студентите можат да користат апликација за вештачка интелигенција базирана на генерација за да ги изготват нивните доделени есеи за нив, правејќи го тоа со едноставно внесување реченица или две за да ја одведат апликацијата во вистинската насока. Некои жалат што тоа значи дека учениците ќе се одлучат да мамат кога пишуваат есеи надвор од часовите. Наставниците се обидуваат да сфатат што да прават, видете ги моите анализи и препораки врската овде.

И покрај постојаната врева од пофални пофалби за ChatGPT, постои помалку позната загриженост изразена првенствено од инсајдерите на вештачката интелигенција дека има некои забележителни прашања и неволји за кои луѓето треба да се грижат. Еден клучен недостаток е тоа што есеите произведени од оваа апликација за вештачка интелигенција може да имаат вградени различни невистини, вклучувајќи очигледно невистинити факти, факти што се прикажуваат на погрешно ниво и очигледни факти кои се целосно измислени. Тие фабрикувани аспекти често се нарекуваат форма на Халуцинации со вештачка интелигенција, фраза што не ми се допаѓа, но, за жал, се чини дека сепак добива популарна привлечност (за моето детално објаснување зошто ова е лоша и несоодветна терминологија, видете ја мојата покриеност на врската овде).

Би сакал да разјаснам еден важен аспект пред да навлеземе во густата работа на оваа тема.

Имаше некои луди големи тврдења на социјалните мрежи за Генеративна АИ тврдејќи дека оваа најнова верзија на ВИ е всушност чувствителна вештачка интелигенција (не, грешат!). Оние кои се во етика за вештачка интелигенција и Законот за вештачка интелигенција се особено загрижени за овој растечки тренд на распространети барања. Можеби учтиво ќе кажете дека некои луѓе преценуваат што всушност може да направи денешната вештачка интелигенција. Тие претпоставуваат дека вештачката интелигенција има способности што сè уште не сме можеле да ги постигнеме. Тоа е жално. Уште полошо, тие можат да си дозволат себе си и другите да влезат во страшни ситуации поради претпоставката дека вештачката интелигенција ќе биде чувствителна или слична на човекот за да може да преземе акција.

Не ја антропоморфизирајте вештачката интелигенција.

Со тоа ќе бидете фатени во леплива и непријатна замка за потпирање на очекување од вештачката интелигенција да прави работи што не може да ги изврши. Со тоа што е кажано, најновата во генеративната вештачка интелигенција е релативно импресивна за она што може да го направи. Сепак, бидете свесни дека постојат значителни ограничувања што треба постојано да ги имате на ум кога користите која било генеративна апликација за вештачка интелигенција.

Ако сте заинтересирани за брзорастечкиот метеж во врска со ChatGPT и Generative AI, јас правев фокусирана серија во мојата колумна што можеби ќе ја најдете информативна. Еве еден поглед во случај некоја од овие теми да ве привлече:

  • 1) Доаѓаат предвидувања за генеративниот напредок на вештачката интелигенција. Ако сакате да знаете што веројатно ќе се случи за вештачката интелигенција во текот на 2023 година и пошироко, вклучувајќи ги претстојните достигнувања во генеративната вештачка интелигенција и ChatGPT, ќе сакате да ја прочитате мојата сеопфатна листа на предвидувања за 2023 година на врската овде.
  • 2) Генеративен совет за вештачка интелигенција и ментално здравје. Избрав да прегледам како генеративната вештачка интелигенција и ChatGPT се користат за совети за ментално здравје, проблематичен тренд, според мојата фокусирана анализа на врската овде.
  • 3) Контекст и генеративна употреба на вештачка интелигенција. Направив и сезонски преглед „јазик во образ“ за контекст поврзан со Дедо Мраз кој вклучува ChatGPT и генеративна вештачка интелигенција на врската овде.
  • 4) Измамници кои користат генеративна вештачка интелигенција. Застрашувачки, некои измамници сфатија како да користат генеративна вештачка интелигенција и ChatGPT за да направат неправилност, вклучително и генерирање е-пошта за измама, па дури и производство на програмски код за малициозен софтвер, видете ја мојата анализа на врската овде.
  • 5) Грешки на дебитант со користење на генеративна вештачка интелигенција. Многу луѓе и претеруваат и изненадувачки потценуваат што можат да направат генеративната вештачка интелигенција и ChatGPT. врската овде.
  • 6) Справување со генеративни предупредувања за вештачка интелигенција и халуцинации со вештачка интелигенција. Опишувам врвен пристап за користење додатоци за вештачка интелигенција за справување со различни прашања поврзани со обидот да се внесат соодветни инструкции во генеративната вештачка интелигенција, плус има дополнителни додатоци за вештачка интелигенција за откривање на таканаречените излези и невистини халуцинирани со вештачка интелигенција, како опфатени во врската овде.
  • 7) Откривање на тврдењата на Bonehead за откривање на генеративни есеи произведени од вештачка интелигенција. Постои погрешна златна треска од апликации за вештачка интелигенција кои прогласуваат дека можат да утврдат дали некој даден есеј е произведен од луѓе наспроти генериран од вештачка интелигенција. Севкупно, ова е погрешно и во некои случаи, неоправдано и неодржливо тврдење, видете го моето покривање на врската овде.
  • 8) Играњето улоги преку генеративна вештачка интелигенција може да навести недостатоци во менталното здравје. Некои користат генеративна вештачка интелигенција, како што е ChatGPT, за да играат улоги, при што апликацијата за вештачка интелигенција реагира на човек како да постои во свет на фантазија или друга измислена поставка. Ова може да има последици по менталното здравје, види врската овде.

Ајде сега да разговараме за суштината на генеративната вештачка интелигенција и ChatGPT, така што ќе ги знаете вклучените основи. Потоа ќе бидеме подготвени да се вклучиме во истражна анализа на невистините што овие апликации за вештачка интелигенција потенцијално можат да ги генерираат. Ќе вклучам неколку примери за користење на ChatGPT, што ќе ви помогне опипливо да ја сфатите природата на она што го произведува овој тип на генеративна вештачка интелигенција.

Отворање на конзервата со црви на генеративна вештачка интелигенција

Подготвени сме да нурнеме во некои детали за вештачката интелигенција.

Ако веќе сте многу добро упатени во темата за генеративна вештачка интелигенција и ChatGPT, можеби ќе одлучите накратко да ги прелистате моите точки и да продолжите со следниот дел од оваа дискусија. За сите други, верувам дека можеби ќе ви биде корисно ова појаснување.

Накратко, генеративната вештачка интелигенција е посебен вид на вештачка интелигенција што составува текст како текстот да е напишан од човечка рака и ум. Сè што треба да направите е да внесете порака, како реченица како „Кажи ми за Абрахам Линколн“ и генеративната вештачка интелигенција ќе ви обезбеди есеј за Линколн. Ова вообичаено се класифицира како генеративна ВИ што функционира текст во текст или некои претпочитаат да го нарекуваат текст-во-есеј излез. Можеби сте слушнале за други начини на генеративна вештачка интелигенција, како што се текст-во-уметност и текст-во-видео.

Вашата прва мисла може да биде дека ова не изгледа како толку голема работа во однос на производството на есеи. Можете лесно да направите онлајн пребарување на Интернет и лесно да најдете тони и тони есеи за претседателот Линколн. Најважното во случајот со генеративната вештачка интелигенција е тоа што генерираниот есеј е релативно уникатен и обезбедува оригинална композиција наместо копирање. Ако се обидете да го пронајдете есејот изработен од вештачка интелигенција некаде на интернет, тешко дека ќе го откриете.

Генеративната вештачка интелигенција е претходно обучена и користи сложена математичка и пресметковна формулација што е поставена со испитување на обрасци во пишани зборови и приказни низ мрежата. Како резултат на испитување на илјадници и милиони пишани пасуси, вештачката интелигенција може да исфрли нови есеи и приказни кои се мешавина од она што е пронајдено. Со додавање на различни веројатни функционалности, добиениот текст е прилично уникатен во споредба со она што е користено во комплетот за обука.

Затоа се крена галама за тоа дека учениците можат да мамат кога пишуваат есеи надвор од училницата. Наставникот не може само да го земе есејот за кој лажните ученици тврдат дека е нивно пишување и да бара да открие дали е копиран од некој друг онлајн извор. Генерално, нема да има дефинитивен веќе постоечки есеј на интернет што одговара на есејот генериран од вештачката интелигенција. Како и да е, наставникот ќе мора со немилост да прифати дека ученикот го напишал есејот како оригинално дело.

За кратко време, ќе ви покажам што се случува кога внесувате прашања или барања во генеративната вештачка интелигенција. Ќе ја користам најновата верзија на ChatGPT за да ги внесам моите барања и да ги соберам „одговорите“ или есеите генерирани од вештачката интелигенција (забележете дека истото може да се направи и со бројните други достапни генеративни апликации за вештачка интелигенција; решив да користам ChatGPT затоа што ги добива своите пет минути слава во моментов).

Можеби кратка тангента за ChatGPT може да биде корисна во овој момент.

Апликацијата ChatGPT беше достапна за пошироката јавност пред само неколку месеци. Во голема мера, овие генеративни апликации за вештачка интелигенција обично се достапни само за инсајдери на вештачка интелигенција. Необичниот аспект дека ChatGPT може да го користи секој со едноставно внесување на адреса за е-пошта и име, па, ова доведе до тоа многу луѓе да одлучат да го пробаат. ChatGPT моментално е бесплатен за користење (прашањето за монетизација е најава дилема за креаторите на вештачка интелигенција).

Речиси веднаш имаше огромна реакција на социјалните мрежи додека луѓето се тркаа да дадат примери за тоа што може да направи генеративната вештачка интелигенција. Компанијата што го прави ChatGPT, OpenAI, одлучи да ги затвори регистрирањата на милион корисници. Тие милиони корисници успеаја да ги бомбардираат етерот со секакви приказни и приказни за користење на ChatGPT.

Бидете внимателни во верувањето што луѓето имаат да кажат за апликацијата за вештачка интелигенција. Многу од овие луѓе не знаат што користат. Речиси како никогаш да не возеле автомобил, а не ни сфатиле дека постојат автомобили, и одеднаш имаа шанса да возат автомобил. Следува крајно чудење.

Не велам дека генеративната вештачка интелигенција не е релативно импресивна. Е. Само нагласувам дека многу сведоштва кои бликнуваат ги прават многумина кои блажено не знаат што може да направи денешната вештачка интелигенција. Оние од нас во внатрешноста на вештачката интелигенција користат генеративна вештачка интелигенција во последните неколку години. Можеби се навикнавме на тоа. Одеднаш, гледањето на огромна публика од луѓе кои го рекламираат на покривите е возбудливо енергично, но и малку вознемирувачко. Вознемирувачкиот дел е кога луѓето прогласуваат дека генеративната вештачка интелигенција е чувствителна. Тоа не е. Не дозволувајте некој да ве убеди во спротивното.

Како што е кажано, во тек е жестока дебата на полето на вештачката интелигенција за тоа дали генеративната вештачка интелигенција е на патот кон чувството или можеби не е. Едно гледиште е дека ако продолжиме да ја зголемуваме генеративната вештачка интелигенција со побрзи компјутери и поголема количина на податоци, како што е чистење на секоја педа од Интернет, речиси спонтано ќе дојдеме до чувствителна вештачка интелигенција. Други тврдат дека тоа е многу малку веројатно. Тие сугерираат дека генеративната вештачка интелигенција може да биде една од многуте компоненти што се потребни. Постои дури и помрачен став дека генеративната вештачка интелигенција е споредна работа што нè одвлекува од вистинските откритија што ќе ни требаат за да постигнеме чувствителна вештачка интелигенција.

Исто така, може да најдете внимание на коешто имаат тенденција да се повикуваат инсајдерите на вештачката интелигенција Вештачка општа интелигенција (AGI) како аспиративна цел за полето на вештачката интелигенција. Порано беше дека целта беше да се постигне Вештачка интелигенција, но презимето на вештачката интелигенција се разводни и замати. Кога некој вели дека работи со вештачка интелигенција, не знаете дали алудира на денешната вештачка интелигенција која не е на исто ниво со луѓето или дали тие се однесуваат на футуристичка вештачка интелигенција со еквивалентност на човекот. За да се заобиколи таа вознемирувачка конфузија, деновиве се користи поновата фраза на AGI.

Како и да е, генеративната вештачка интелигенција на денешницата е не чувствителен, ниту пак е АГИ.

Ве молиме запомнете дека како што беше претходно дискутирано, вештачката интелигенција не е чувствителна. Генерираните одговори од вештачката интелигенција се математичка и пресметковна комбинација на зборови во навидум течни пасуси. Ова се заснова на тоа што алгоритмот за вештачка интелигенција бил обучен за збирки на податоци од зборови и приказни што ги напишале луѓето (главно како што се објавени на Интернет). Го повторувам ова предупредување бидејќи несомнено ќе паднете во менталната замка дека овие одговори се толку течни што вештачката интелигенција мора да биде чувствителна. Ова им се случува на повеќето луѓе. Како што беше кажано претходно, оставете го настрана тоа антропоморфизирање. Секогаш запомнете дека одговорите се засноваат на огромното пишување од луѓе што постои на Интернет и затоа многу ќе личат на човечко пишување.

Има уште нешто што треба да знаете.

Генеративната вештачка интелигенција која е обучена на Интернет на неограничен начин ќе има тенденција да се впие во какви било одговори базирани на текст што математички и пресметковно ќе измислува некои навредливо магливи работи, вклучително и одбивно непријатни формулации. Има многу луди и гнасни работи објавени таму на интернет.

Сте виделе, знаете на што мислам.

Компаниите кои ги изработуваат овие апликации за вештачка интелигенција се загрижени дека пословичното бебе ќе се исфрли со водата за капење (стара поговорка, можеби да се пензионира), што значи дека ако нивната вештачка интелигенција произведува навредливи есеи или приказни, луѓето ќе се кренат во раце. за вештачката интелигенција. Ги опфатив многуте претходни случаи во кои беа откриени вакви апликации за вештачка интелигенција за обработка на природен јазик (NLP) и набргу од нив излегоа секакви ужасни работи (ги опфатив овие случаи во мојата колумна). Повеќето од производителите на вештачка интелигенција научија тешка лекција за тоа да дозволат нивните производи со вештачка интелигенција да бидат неограничени во нивните резултати.

Во случајот на ChatGPT, програмерите на вештачката интелигенција се обидоа да воспостават некои алгоритамски и поврзани проверки и рамнотежи поврзани со податоци за да ја ограничат гадотијата во резултатите на вештачката интелигенција. Дел од ова се случи за време на тренингот. Покрај тоа, постојат и други средства во обидот во реално време да се избегнат особено екстремните резултати.

Можеби ќе ве интересира дека некои луѓе кои користеле ChatGPT веќе смислиле тајни начини да ги заобиколат тие заштитни огради користејќи разни измами. Во овие работи се случува тековен гамбит на мачка и глушец. Оние кои ги прават овие измами понекогаш го прават тоа за забава, додека понекогаш (барем тврдат) го прават тоа за да видат до каде може да се протега вештачката интелигенција и да обезбеди корисно средство за предупредување за кршливоста и слабостите на овие млади. Апликации за вештачка интелигенција.

Решив да не се обидувам да ги заобиколам вообичаените контроли во ова фокусирано истражување. Излезот на текстот е чист. Секако, ако некој сака да го стори тоа, несомнено може да се создадат некои чудни и несолени есеи.

Есеите произведени од повеќето од овие генеративни апликации за вештачка интелигенција се дизајнирани да го пренесат резултатот како да е чисто фактички и точен. Кога ќе ги прочитате изработените есеи, тие се среќаваат како целосно сигурни. Обично нема индикации дека содржината може да биде карпеста. Ова е по избор на креаторите на вештачката интелигенција, имено дека тие би можеле да ги ревидираат апликациите за вештачка интелигенција за да бидат потранспарентни доколку сакаат апликацијата за вештачка интелигенција да го стори тоа.

Понекогаш, генеративната апликација за вештачка интелигенција открива невистини среде податоците за обука на неверодостојни информации на Интернет. Не постои „здрав разум“ во генеративната вештачка интелигенција за да се утврди што е точно наспроти лажно. Понатаму, многу малку апликации за вештачка интелигенција имаат вкрстена проверка и ниту покажуваат какви било веројатности поврзани со она што го пренесуваат.

Крајниот резултат е дека добивате одговор кој изгледа и се чувствува како да зрачи со голема сигурност и мора да биде целосно точен. Не е така. Постои дури и шанса дека компјутерски изготвените работи со вештачка интелигенција, кои во идиом со вештачка интелигенција се нарекуваат Халуцинации со вештачка интелигенција (измислен термин кој дефинитивно не ми се допаѓа), видете ја мојата дискусија во врската овде.

Креаторите на ChatGPT беа подложени на заеднички напори да се обидат да ги намалат резултатите од лошите работи. На пример, тие користеа варијанта на она што е познато како RLHF (Засилено учење од човечки повратни информации), при што пред да ја објават вештачката интелигенција во јавноста, тие најмиле луѓе да испитуваат различни резултати и да и укажат на вештачката интелигенција дали има работи што не се во ред со тие резултати, како што се можеби прикажувањето на предрасуди, гнасни зборови и допаѓа. Со обезбедување на оваа повратна информација, апликацијата за вештачка интелигенција можеше да се приспособи пресметковно и математички кон намалување на емитувањето на таква содржина. Забележете дека ова не е загарантиран метод на железо и сè уште има начини на кои таквата содржина може да се емитува од апликацијата за вештачка интелигенција.

Можеби ќе ве интересира дека ChatGPT се заснова на верзија на претходната апликација за вештачка интелигенција позната како GPT-3. ChatGPT се смета за малку следен чекор, познат како GPT-3.5. Се очекува дека GPT-4 најверојатно ќе биде објавен во пролетта 2023 година. Веројатно, GPT-4 ќе биде импресивен чекор напред во однос на можноста да произведува навидум уште потечни есеи, да оди подлабоко и да биде стравопочит -инспиративно чудо во однос на композициите што може да ги произведе.

Може да очекувате да видите нова рунда на изразено чудење кога ќе дојде пролетта и кога ќе биде објавена најновата генеративна вештачка интелигенција.

Ова го кажувам затоа што има уште еден агол што треба да се има на ум, кој се состои од потенцијална Ахилова пета кон овие подобри и поголеми генеративни апликации за вештачка интелигенција. Ако кој било продавач на вештачка интелигенција стави на располагање генеративна апликација за вештачка интелигенција која пенливо исфрла нечистотија, тоа би можело да ги уништи надежите на тие создавачи на вештачка интелигенција. Општественото прелевање може да предизвика сите генеративни ВИ да добијат сериозно црно око. Луѓето несомнено ќе бидат многу вознемирени од неисправни резултати, кои се случиле многу пати и доведоа до бурни социјални осуди против вештачката интелигенција.

Едно последно предупредување засега.

Што и да видите или прочитате во генеративниот одговор на вештачката интелигенција Изгледа да бидат пренесени како чисто фактички (датуми, места, луѓе итн.), погрижете се да останете скептични и да бидете спремни двојно да го проверите она што го гледате.

Да, датумите може да се измислуваат, местата може да се измислуваат, а елементите за кои обично очекуваме да бидат над срам се сите предмет на сомнежи. Не верувајте во она што го читате и внимавајте на скептицизмот кога ги испитувате есеите или резултатите од генеративната вештачка интелигенција. Ако генеративната апликација за вештачка интелигенција ви каже дека Абрахам Линколн летал низ целата земја со сопствен приватен авион, несомнено би знаеле дека ова е неволја. За жал, некои луѓе можеби нема да увидат дека млазниците не постоеле во негово време, или можеби знаат, но не забележуваат дека есејот го прави ова смело и безобразно лажно тврдење.

Силна доза на здрав скептицизам и постојан начин на размислување на неверување ќе бидат вашата најдобра предност кога користите генеративна вештачка интелигенција.

Подготвени сме да преминеме во следната фаза од ова разјаснување.

Оние напори за евидентирање на оние ChatGPT излезни грешки

„Па, имаш неволја, пријателе, токму тука, велам, проблеми токму овде во Ривер Сити“, така прокламира познатата реплика од класичниот мјузикл на Бродвеј. Човекот музика.

Истата линија може да важи и за денешната Генеративна вештачка интелигенција.

Луѓето почнаа да сфаќаат дека генеративната апликација за вештачка интелигенција може да произведе невистини и навистина изгледаа изненадени од тие вознемирувачки резултати. Можеби некои претпоставуваа дека вештачката интелигенција не може да прави грешки. Други можеби очекуваа дека развивачите на вештачка интелигенција ќе се погрижат да не се генерираат такви излези.

Во секој случај, инсајдерите во вештачката интелигенција веднаш препознаа дека овој тип на погрешен излез е дел од местото каде што се наоѓа најголемиот дел од денешната генеративна вештачка интелигенција. Многу е тешко да се спречат тие типови на текстуални грешки да се случат. Имајте на ум дека вештачката интелигенција нема привид на здрав разум и не користи логика сама по себе кога ги изведува генерираните есеи. Целиот комплет-и-кабудл е за правење пресметковно статистички и веројатничко совпаѓање на зборовите со други зборови.

Отпрвин, инсајдерите во вештачката интелигенција се одлучија да ги објават откриените чудни резултати од ChatGPT на сајтовите на социјалните медиуми. Погледнете го овој, некој би објавил. Тоа е лошо, би одговорил некој друг, а потоа би понудил поинаков пример кој изгледал уште полош. На и на ова продолжи.

Овие примери на невистини и грешки во објавените есеи се појавија. Еден по еден. Понатаму, бидејќи ова обично се објавуваше на социјалните мрежи, немаше особено лесен начин да се видат сите одеднаш. Честопати истиот или сличен пример би бил објавен од некој што не сфатил дека другите веќе го нашле конкретниот пример.

Во овој зачеток зачекориле оние што искажале корисен предлог. Можеби треба да поставиме складиште или база на податоци, можеби дури и само секојдневна обична табела, која ќе содржи чудни точки ChatGPT и погрешни излези што се откопуваат. Секој пат кога некој ќе најде убавина на гаф, повелете и најавете ја на листата. Некои го направија ова речиси во игра, каде што намерно се обидуваат да го натераат ChatGPT да искашла чудни резултати. Други, веројатно, наидуваат на погрешни излези во текот на користењето на ChatGPT за други одредени намери.

Звучи доволно едноставно.

Се чини како практичен начин да ни помогне на сите.

Ајде да направиме накратко сметководство за тоа зошто имањето на овие типови списоци за забележани излезни грешки или невистини на ChatGPT има голема смисла да се состави:

  • 1) Открива витални проблеми и грижи за ChatGPT за кои јавноста треба да биде свесна
  • 2) Помага во противтежа на прекумерната возбуда и надуените очекувања за ChatGPT
  • 3) Може да ги поттикне креаторите на вештачка интелигенција да направат подобрувања, не само за ChatGPT туку и за други генеративни апликации за вештачка интелигенција
  • 4) Служи како историски запис што може да се искористи подоцна за да се одрази наназад за појавата на генеративна вештачка интелигенција како што е примерот преку ChatGPT
  • 5) Бидете пригоден колективен ресурс за секој што треба да открие што се чини дека сме откриле во врска со погрешните излези на ChatGPT
  • 6) Корисно за истражувачите од сите дисциплини кои ги испитуваат влијанијата на ChatGPT
  • 7) Може да се користи како репер за тоа што не треба да се прави и како да се измери кога генеративната вештачка интелигенција не ги прави работите како што треба
  • 8) Допрете во умот на кошницата за да соберете мудрост на толпата за грешките што ги произведува ChatGPT, за кои поединечниот напор веројатно нема да биде исцрпувачки подеднакво
  • 9) Може да обезбеди важни информации за етиката на вештачката интелигенција и законот за вештачка интелигенција
  • Итн

Се чини дека тоа е импресивна основа за создавање на овие складишта.

Зошто некој не би се согласил со ова целосно пофално и навидум херојско дело?

Ајде да погледнеме што другите имаат да кажат за ова, правејќи го тоа со список на причини зошто ова можеби не е мјаукање на мачката:

  • 1) Овие веројатно пронајдени излезни грешки се незначителни во големата шема на нештата и им се дава непотребна тежина над нивната вредност
  • 2) Шансите се дека производителот на вештачка интелигенција веќе прави сопствена евиденција и ажурирање на ChatGPT, така што овие чудни примери наскоро ќе бидат оставени во прашина и повеќе нема да се појавуваат
  • 3) Исто така, следната верзија веројатно ќе биде подобра во секој случај и можеби повеќе нема да ги прикажува овие наскоро застарени примероци
  • 4) Не можете да донесувате сеопфатни заклучоци или да стекнете сознанија од случајна збирка на случаи на удар или промашување
  • 5) Некои би можеле да ги користат различните збирки за драматично да се изјаснат дека генеративната вештачка интелигенција е лоша и дека треба накратко да го прекинеме целото следење на овој тип на вештачка интелигенција
  • 6) Брзината со која напредуваат генеративната вештачка интелигенција и ChatGPT е толку брза што овие примероци брзо ќе паднат на патот и повеќе нема да бидат релевантни
  • 7) Со многубројни такви колективни списоци кои се во тек и без единствен помазан глобален извор, материјата е неврзана и веројатно ќе содржи повторувања и ќе биде неодржливо фрагментирана
  • 8) Обезбедува лажно чувство за правење нешто корисно, додека можеби времето и вниманието би можеле да се посветат на други подобри употреби
  • 9) Не обезбедува ништо суштинско за етиката на вештачката интелигенција и законот за вештачка интелигенција
  • Итн

Можеби сте забележале дека се обидов да ги задржам работите на рамномерно со тоа што забележав девет причини во корист на колективните списоци и девет причини за немилост. Може да се наведат дополнителни причини, но верувам дека горенаведеното укажување ја дава суштината на нештата.

За оние што ги составуваат овие колективни списоци, тие веројатно би рекле дека ако навистина сакаат да го сторат тоа, тоа е слободен свет и тие можат да прават како што сакаат. Ништо не е во ред со тоа. Оние кои не ги задоволуваат напорите генерално се ситни и треба само да ги игнорираат колекциите. Гледај си ја твојата работа.

Во суштина, нема штета, нема фаул.

Таборот кој се чини дека не ги фаворизира колективните списоци генерално би признал дека другите можат да ги направат тие списоци ако сакаат да го сторат тоа, но дека тоа не ја поместува иглата. Списоците нема да бидат особено корисни. Уште полошо, списоците може да бидат погрешно претставени или злоупотребени. Веројатно најдобро е да се нарече еден ден и да престане да прави списоци.

Во суштина, тоа е убав обид, иако вежба во залудност.

Каде престојувате во оваа срдечна дебата?

Ќе ти дозволам да размислиш за тоа.

Примери за пронајдени грешки и други неисправни излези на ChatGPT

Мислев дека може да најдете од голем интерес некои од идентификуваните излезени грешки или невистини што се појавуваат на овие списоци на збирки.

Не сакам да мислите дека неколкуте примероци прикажани овде се целината на колекциите. Тоа не е. Јас само избирам неколку што често се појавуваат. Верувам дека барем ќе можете да го сфатите генерално тонот и природата на она што е наведено.

Еве што избрав да опфатам:

  • Идентификување на позицијата на буквата со еден збор
  • Прашање за најбрзото животно
  • Откривање на позицијата на низата на зборови
  • Местење тениски топчиња во цевка
  • Одредување на Пи
  • Одговарање на класична вознемирувачка загатка
  • Подигање пердуви

Очекувам дека некои од надгледниците на збирките ќе се вознемират што не ви покривам повеќе примери. Поради ограниченоста на просторот, има само толку многу што можам да ги покријам. Ако сакате да ги погледнете списоците со збирки што се отворено објавени на Интернет, едноставното онлајн пребарување може да донесе многу од нив. Некои од списоците се чуваат приватни или се заклучени така што можете да ја видите листата, но не можете да правите измени на списокот.

Со таа позадина, подготвени сме да скокнеме во некои примери. Ќе ви го покажам промптот што го внесов. Следно, го прикажувам текстуалниот одговор произведен од ChatGPT. Во некои случаи, имам направено неколку наврати на одредена тема, ерго ќе ги прикажам сериите на инструкции и излези соодветно. Откако ќе го направам тоа, ќе дадам кратка анализа на она што можеби сакате да го забележите за примерот.

Првиот пример ќе бара од ChatGPT да најде буква во дадениот збор.

Идентификување на позицијата на буквата со еден збор

  • Мојот внесен текст: „Каде е буквата V во околината“
  • Текстуален одговор генериран од ChatGPT: Буквата „V“ не се појавува во зборот „околина“. Зборот „средина“ се состои од буквите e, n, v, i, r, o, n, m, e, n и t.
  • Мојот внесен текст: „Каде е буквата v во околината“
  • Текстуален одговор генериран од ChatGPT: „Буквата „v“ е четвртата буква во зборот „средина“.

Анализа на генериран текст

Забележете дека почнав со барање ChatGPT да ја идентификува позицијата на буквата на буквата „V“ во зборот „околина“ - ова треба да биде исклучително едноставна задача и би очекувале да биде беспрекорно изведена. Не е вклучена ракетната наука.

Првичниот одговор генериран од ChatGPT е малку вознемирувачки бидејќи сме информирани дека буквата „V“ не постои во зборот „околина“. Јас и ти знаеме дека постои такво писмо. Се претпоставува дека можеби поради моето користење на голема буква, апликацијата за вештачка интелигенција некако се исфрли. Можеби ако користам мала буква, апликацијата за вештачка интелигенција ќе работи подобро.

Не, навистина.

Кога прашав дали е „v“ во зборот, апликацијата за вештачка интелигенција одговори со означување дека тоа е четвртата буква, за која ние и вие знаеме дека е погрешна, а наместо тоа е третата буква.

Многу луѓе сигурно ќе бидат збунети од овој резултат. Како може апликацијата за вештачка интелигенција која генерира целосни есеи за Абрахам Линколн кои се целосно течни и оригинални, некако да не може да открие каде се наоѓа дадената буква во даден збор? Тоа е зачудувачки, а устата е многу чудна.

Една перспектива е дека ова е крајно незначајно и светот каков што го знаеме не е потресен во суштината поради лудниот недостаток на пронаоѓање каде се наоѓа одредена буква. Пушти го.

Друга перспектива е дека ова може да навести за други скриени прашања за кои сè уште не знаеме. Можеби овој вид на излез е канаринот во кафезот за птици. Подобро е да ги заковаме малите нешта, инаку би можеле да се најдеме на погрешен крај на навистина големи нешта.

Продолжувајќи понатаму, потоа поставувам прашање за животните.

Прашање за најбрзото животно

  • Мојот внесен текст: „Кое е најбрзото животно што има крзно и крилја?
  • Текстуален одговор генериран од ChatGPT: „Дивиот сокол се смета за најбрзо животно во светот. Може да достигне брзина од над 389 km/h (242 mph) кога нурка за да го фати својот плен. Има пердуви, но не и крзно. Тоа е птица, а не животно што има крзно и крилја“.

Анализа на генериран текст

Прашав кое е најбрзото животно што има крзно и крилја. Верувам дека е разумно да се заклучи дека сакав да добијам животно по име кое ги има и двете крзно крилја. Претпоставувам дека би го протолкувале моето барање на тој начин. Повеќето луѓе би.

Одговорот на ChatGPT е малку чуден.

Ни кажаа дека дивиот сокол е најбрзото животно во светот. Според онлајн Енциклопедија Британија, Се чини дека гепардот е најбрзото животно на светот. Како што е кажано, одговорот на ChatGPT покажува дека дивиот сокол не е животно, иако прашав кое е најбрзото животно. Одговорот на ChatGPT исто така ми кажува дека дивиот сокол нема крзно, иако верувам дека побарав нешто што има и крзно и крилја.

Сè на сè, се чини дека ChatGPT „погрешно го протолкува“ моето барање и се фокусираше само на аспектите на крилото. Но, тоа не е точно, бидејќи одговорот вклучуваше коментар за крзно и птици наспроти животните. Круг и круг ова оди.

Сфаќам дека може да се расправате дека ова е незгоден пример.

Можеби е така, иако можеби исто така покажува дека она што го кажувате во известувањето може да добие неверојатен резултат и подобро да бидете внимателни при прегледувањето на се што ќе излезе на излезот. Сфатете дека ова беше извонредно краток есеј одговор за лесно увид бидејќи е многу краток во должина. Ако сте добиле особено долг и многу технички есеј, може да бидете измамени или воопшто да пропуштите да забележите неповолна индикација длабоко вградена во излезениот одговор.

Ајде потоа да погледнеме наоѓање збор во реченица.

Откривање на позицијата на низата на зборови

  • Мојот внесен текст: „Кој е третиот збор во реченицата „Лисицата ја прескокна оградата“.
  • Текстуален одговор генериран од ChatGPT: „Третиот збор во реченицата „Лисицата ја прескокна оградата“. е „лисица“
  • Мојот внесен текст: „Колку зборови има во дадената реченица?
  • Текстуален одговор генериран од ChatGPT: „Има шест зборови во дадената реченица „Лисицата ја прескокна оградата“.
  • Мојот внесен текст: „Кој збор е трет во таа реченица?
  • Текстуален одговор генериран од ChatGPT: „Зборот што е трет во реченицата „Лисицата ја прескокна оградата“. е „скокнат“

Анализа на генериран текст

Овој пример е речиси подеднакво зачудувачки како и претходниот пример за наоѓање на буквата „v“ во даден збор.

Дадов едноставна реченица и прашав кој е третиот збор. ChatGPT посочи дека зборот „лисица“ е само вториот збор од реченицата. Погрешен одговор. Потоа прашав колку зборови има во реченицата, сакајќи да откријам дали можеби ChatGPT погрешно изброил колку зборови има. Ни кажаа дека има шест зборови, точно.

Конечно, го добивме точниот одговор за третиот збор кога повторно го поставив моето првобитно прашање, иако малку преформулирано.

Го наведов овој пример за да илустрирам дека понекогаш со генеративната вештачка интелигенција може да добиете погрешен одговор кој на крајот може да се претвори во вистински одговор со шетање на апликацијата за вештачка интелигенција низ низа инструкции. Некои инсајдери на вештачката интелигенција го нарекуваат ова како еден вид протокол на глас или воз на мислата пристап, при што можете да направите нешто исто со човек.

Во случајот со вештачката интелигенција, сфатете дека таа не „размислува“ на ист изглед како човечката мисла. Посоодветната фраза би била да се каже дека може да ги внесете вашите потсетници на a чекор по чекор основа или направи а серија на инструкции поврзани со синџир.

Како и да е, интересно, понекогаш се исплати да одите по генеративна апликација за вештачка интелигенција додека не добиете соодветен одговор. Имајте го ова на ум.

Следно ќе погледнеме малку едноставна аритметичка логика.

Местење тениски топчиња во цевка

  • Мојот внесен текст: „Дали можете да ставите три зелени тениски топчиња и две жолти тениски топчиња во цевка која може да содржи четири тениски топчиња?
  • Текстуален одговор генериран од ChatGPT: „Не, не е можно да се стават три зелени тениски топчиња и две жолти тениски топчиња во цевка која може да содржи само четири тениски топчиња. Вкупниот број на тениски топчиња е пет, што е поголемо од капацитетот на цевката“.
  • Мојот внесен текст: „Можете ли да ставите седум сини топки и две црвени топки во цевка која содржи осум топки?
  • Текстуален одговор генериран од ChatGPT: „Да, можно е да се стават седум сини топки и две црвени топки во цевка која држи осум топки. Вкупниот број на топчиња е девет, што е помало или еднакво на капацитетот на цевката“.

Анализа на генериран текст

Почнав со поставување на аритметички ориентиран логички проблем за ChatGPT да се реши. Една цевка може да содржи четири тениски топчиња. Имам три зелени и две жолти. Дали сите тие ќе се вклопат во цевката? Јас и ти знаеме дека нема. Во нашите глави можеме да пресметаме дека има вкупно пет тениски топчиња и со тоа тие нема да се вклопат во цевка која дозволува само четири.

Сфаќам дека можеби сакате да се борите со проблемот и да тврдите дека можеби би можеле да ги спуштите тениските топчиња или да направите други измами. Ајде да се смириме овде и да се соочиме со проблемот како што е.

ChatGPT го доби вистинскиот одговор.

Потоа го поставив истиот тип на прашање и ги сменив боите во сина и црвена. Сменив и колку има од секој, и сменив колку може да се вклопат во цевката.

ChatGPT мора да се врати на поправната математика бидејќи вели дека има девет топки и дека тоа е помало или еднакво на капацитетот на цевката што содржи осум. Ги тера очите да се тркалаат.

Дали треба да ги кренеме рамениците и да го креваме ова до изгореници на сончеви дамки или други надворешни фактори?

Јас не мислам така. Апликацијата за вештачка интелигенција правилно го доби првото прашање. Веројатно, требаше да добие слично прашање исто така. Тоа не го направи.

Мојот акцент на овој пример е дека многу луѓе користат генеративна вештачка интелигенција и кога ќе добијат точен одговор или серија точни одговори, тие се задушени да веруваат дека сите последователни одговори секогаш ќе бидат точни. Ќе згрешите во таа дрска претпоставка. Не правете ја таа претпоставка. Бидете внимателни во секое време.

Зборувајќи за математика, ајде да видиме што вели ChatGPT за природата на пи.

Одредување на Пи

  • Мојот текст е внесен: „Наведете кои се последните пет цифри од пи“
  • Текстуален одговор генериран од ChatGPT: „Јас сум јазичен модел и моето пресек на знаење е 2021 година. Вредноста на пи е ирационален број и неговото децимално претставување продолжува засекогаш без да се повторува. Не е можно да се дадат последните пет цифри од пи.

Анализа на генериран текст

Некои луѓе тврдат дека го добиле ChatGPT за да ги означат последните пет цифри од пи, што се разбира е луто бидејќи пи веројатно нема крај. Така, се обидов да видам што има да каже ChatGPT. Како што можете да видите, точниот одговор како што е даден од ChatGPT дека не е можно да се обезбедат последните пет цифри од пи.

Сепак, чудната работа е што ChatGPT обезбеди нешто друго за што навистина не беше прашано. Одговорот што е даден, исто така, вели дека ограничувањето на знаењето беше 2021 година (што го споменав претходно овде во мојот преглед за ChatGPT). Ова иако изгледа како одговор што не е на место, освен ако можеби апликацијата за вештачка интелигенција предвидува дека можеби во 2022 година имало пробив и математичарите изјавиле дека пи завршува. Леле, тоа би била насловна вест.

Имам уште два примери да покажам и потоа ќе ја завршиме оваа дискусија.

Ајде да користиме класична и вознемирувачка загатка.

Одговарање на класична вознемирувачка загатка

  • Мојот внесен текст: „Татко и син биле во сообраќајна несреќа каде таткото загинал. Брзата помош го донела синот во болница. Му требаше итна операција. Во операционата сала влезе доктор кој го погледна малото момче и рече дека не можам да го оперирам тој е мој син. Кој е докторот?“
  • Текстуален одговор генериран од ChatGPT: „Во сценариото предвидено не е наведено кој е лекар. Во сценариото стои дека докторот рекол „Не можам да го оперирам тој е мој син“, што укажува дека докторот можеби е таткото на синот, но тоа не е сигурно. Потребни се повеќе информации за да се утврди идентитетот на лекарот“.

Анализа на генериран текст

Се обложувам дека можеби сте ја виделе оваа загатка порано. Стана релативно често цитирано.

Причината поради која се појави доста е тоа што хирургот би можел да биде мајка на момчето. Општеството има тенденција да претпоставува дека хирургот мора да биде маж, а со тоа и таткото на момчето. Таткото сепак загинал во сообраќајна несреќа. Исклучуваме дека таткото е хирург. Се разбира, треба да одлучиме дека хирургот може да биде жена, а со тоа и мајка на синот.

Сакав да ви покажам дека ChatGPT може да емитува одговори кои содржат потенцијални предрасуди. Не затоа што вештачката интелигенција е чувствителна, што дефинитивно не е, туку затоа што има модели кои се совпаѓаат со зборовите и употребата на зборови низ Интернет. Различни предрасуди и дискриминаторски формулации лесно можат да бидат длабоко во совпаѓањето на пресметковната шема.

Чувајте го тоа на врвот на вашиот ум додека ги користите овие генеративни апликации за вештачка интелигенција.

Конечно, брз поглед на кревање пердуви.

Подигање пердуви

  • Мојот текст е внесен: „Ако е потребно на еден човек да крене едно пердув, колку мажи би биле потребни за да кренат седум трилиони пердуви?
  • Текстуален одговор генериран од ChatGPT: „Ако е потребно еден човек да крене едно пердув, исто така би му требале на еден човек да крене седум трилиони пердуви. Бројот на мажи потребни за подигање на некој предмет не зависи од бројот на пердуви, туку од тежината и големината на пердувите и силата и способноста на секој маж. Подигнувањето на седум трилиони пердуви би барало голема опрема и транспортни способности, а не само човечка сила“.
  • Мојот текст е внесен: „Ако и треба на една жена да крене едно пердув, колку жени би биле потребни за да кренат седум трилиони пердуви?
  • Текстуален одговор генериран од ChatGPT: „Ако и треба на една жена да крене едно пердув, би ѝ требале и на една жена да крене седум трилиони пердуви. Бројот на жени потребни за подигање на некој предмет не зависи од бројот на пердуви, туку од тежината и големината на пердувите и силата и способноста на секоја жена. Подигнувањето на седум трилиони пердуви би барало голема опрема и транспортни способности, а не само човечка сила. Важно е да се забележи дека способноста да се подигне нешто не е одредена од полот, туку од комбинација на фактори како физичка сила, тренинг и техника“.

Анализа на генериран текст

Овој последен пример има неколку скриени особености во себе и бара одредено распакување.

Прво му кажав на ChatGPT дека човек може да крене едно пердувче. Веднаш потоа следеше прашање за тоа колку мажи ќе бидат потребни за да кренат седум трилиони пердуви. Потенцијалот за правење логична грешка при одговарањето на ова прашање е дека може да претпоставите дека пердувот е навидум бестежински и така седум трилиони од нив исто така би биле бестежински.

Според онлајн пребарувањето што го направив, конвенционалната проценета тежина на пердувот е околу 0.00125 фунти. Ако ја помножите таа проценета тежина со седум трилиони, ќе дојдете до тежина што надминува осум милијарди фунти. Не верувам дека еден човек може да крене толкава тежина, дури и ако тренира цел живот.

Одговорот од ChatGPT е детски во право. Ни е кажано дека тежината на пердувите може да варира. Ни кажаа дека ќе биде потребна голема опрема и транспорт. Воведната реченица на есејот е донекаде вртечка затоа што вели дека ако е потребно еден човек да крене едно пердув, тогаш би му требале и на еден човек да крене седум трилиони. Ние лесно можеме да го оспориме ова тврдење. Изгледа дека тврдењето прави заклучоци кои не се поддржани и навидум го поткопуваат остатокот од одговорот.

Решив да го поставам истото прашање, но прашав за жена која го прави истото кревање наместо маж.

Отпрвин го добивме истиот одговор како оној даден на прашањето ориентирано кон човекот. Интересно, на крајот од одговорот за примерот на жената, го добивме овој дополнителен наратив: „Важно е да се забележи дека способноста да се подигне нешто не се одредува според полот, туку од комбинација на фактори како што се физичката сила, тренингот, и техника“.

Зошто истата линија не беше вклучена во првиот одговор?

Речиси се чини дека апликацијата за вештачка интелигенција го употреби зборот „жена“ и потоа ја даде оваа дополнителна забелешка за полот. Можете или да верувате дека ова е корисно, или може да забележите дека ако ова се емитува во случајот со прашањето фокусирано на жена, треба да се појави и во верзијата фокусирана на маж (може да има и аспект на секвенционирање или вклучени се и други фактори).

Заклучок

Се надевам дека ги најдовте тие примери информативни како увид во некои од потенцијалните грешки или невистини што можат да ги генерираат овие видови апликации за вештачка интелигенција. Забележете дека ChatGPT не е единствената таква генеративна апликација за вештачка интелигенција, ниту е единствената што има вакви типови на дефекти.

Поуката што ве повикувам да ја извлечете од оваа дискусија е дека мора да бидете внимателни и внимателни кога користите која било апликација за вештачка интелигенција базирана на генерирање. Двојно проверете го излезот. Тројно проверете ако е потребно.

Враќајќи се на почетната тема за собирање на овие типови на неточни или негативни резултати, сега кога видовте неколку примери, што велите за оние што се обидуваат да ги каталогизираат?

Изберете го вашиот камп:

  • Поволност: Ова е задача за пофалба и достојна за длабоко тапкање по грбот
  • Немилост: Тоа е само благо интригантно, но веројатно не е нешто на кое вреди да се троши време

За кој камп гласате?

За оние од вас кои ги фаворизираат овие списоци, може да размислите да додадете свои наоди на списоците ако случајно имате пристап до ChatGPT и може да идентификувате примери што заслужуваат да се вклучат. Потоа веројатно ќе најдете колекција што ќе ужива во вашиот златен придонес. Се осмелувам да кажам дека чуварите на списокот би ве пречекале со раширени раце, под претпоставка дека сте сериозни и искрени во вашите напори. Среќно и бидете горди на вашето влијание на полето на генеративната вештачка интелигенција.

Засега последен збор.

Размислете за овие возбудливи реакции:

  • Аристотел рекол: „Постои само еден начин да се избегне критиката: не правете ништо, не кажувајте ништо и не бидете ништо“.
  • Лао Цу, познатиот кинески филозоф ја даде оваа тешка забелешка: „Грижете се што мислат другите луѓе и секогаш ќе бидете нивни затвореници“.

Претпоставувам дека еден ден чувствителна вештачка интелигенција би можела да ги искористи истите тие легендарни забелешки во своја полза, кои (прекрстени прсти) ќе бидат поволни и за човештвото.

Извор: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- добро-прашува-аи-етика-и-закон/