Десетици експерти за вештачка интелигенција (AI), вклучително и извршните директори на OpenAI, Google DeepMind и Anthropic, неодамна потпишаа отворена изјава објавена од Центарот за безбедност на вештачката интелигенција (CAIS).
Ние само објавивме изјава:
„Ублажувањето на ризикот од истребување од вештачката интелигенција треба да биде глобален приоритет заедно со другите ризици од општествени размери, како што се пандемии и нуклеарна војна“.
Меѓу потписниците се Хинтон, Бенџо, Алтман, Хасабис, Сонг итн.https://t.co/N9f6hs4bpa
(1 / 6)
— Ден Хендрикс (@DanHendrycks) Може 30, 2023
Изјавата содржи една реченица:
„Ублажувањето на ризикот од истребување од вештачката интелигенција треба да биде глобален приоритет заедно со другите ризици од општествени размери, како што се пандемии и нуклеарна војна“.
Помеѓу потписниците на документот се вистински „кој е кој“ од светители на вештачката интелигенција, вклучувајќи го и „Кумот“ на вештачката интелигенција, Џефри Хинтон; Универзитетот во Калифорнија, Стјуарт Расел од Беркли; и Лекс Фридман од Технолошкиот институт во Масачусетс. Музичарот Грајмс е исто така потписник, наведен во категоријата „други значајни личности“.
Поврзани со: Музичарот Грајмс е подготвен да „подели 50% авторски права“ со музика генерирана од вештачка интелигенција
Иако изјавата може да изгледа безопасна на површината, основната порака е донекаде контроверзна во заедницата за вештачка интелигенција.
Навидум се поголем број на експерти веруваат дека сегашните технологии може или неизбежно ќе доведат до појава или развој на систем за вештачка интелигенција способен да претставува егзистенцијална закана за човечкиот вид.
На нивните ставови, сепак, им се спротивставува контингент експерти со дијаметрално спротивни мислења. Главниот научник за вештачка интелигенција на Мета, Јан ЛеКун, на пример, во многу наврати забележа дека не мора да верува дека вештачката интелигенција ќе стане неконтролирана.
Супер-човечката вештачка интелигенција не е ни блиску до врвот на листата на егзистенцијални ризици.
Во голем дел затоа што сè уште не постои.Сè додека немаме основен дизајн дури и за вештачка интелигенција на ниво на куче (а камоли на човечко ниво), дискусијата за тоа како да се направи безбедно е прерано. https://t.co/ClkZxfofV9
— Јан ЛеКун (@ylecun) Може 30, 2023
За него и за другите кои не се согласуваат со реториката за „изумирање“, како што е Ендрју Нг, ко-основач на Google Brain и поранешен главен научник во Baidu, вештачката интелигенција не е проблемот, тоа е одговорот.
Од другата страна на аргументот, експертите како што се Хинтон и извршниот директор на Conjecture, Конор Лихи, веруваат дека вештачката интелигенција на човечко ниво е неизбежна и, како таква, сега е време да се дејствува.
Шефовите на сите големи лаборатории за вештачка интелигенција го потпишаа ова писмо со кое експлицитно го признаваат ризикот од исчезнување од AGI.
Неверојатен чекор напред, му честитаме на Дан за неговата неверојатна работа за склопување на ова и му благодариме на секој потписник што го направи својот дел за подобра иднина! https://t.co/KDkqWvdJcH
— Конор Лихи (@NPCollapse) Може 30, 2023
Сепак, не е јасно на какви дејствија бараат потписниците на изјавата. Извршните директори и/или раководителите на вештачката интелигенција за речиси секоја голема компанија за вештачка интелигенција, како и реномирани научници од целиот академски свет, се меѓу оние кои потпишаа, со што е очигледно дека намерата не е да се запре развојот на овие потенцијално опасни системи.
Претходно овој месец, извршниот директор на OpenAI, Сем Алтман, еден од потписниците на горенаведената изјава, го имаше своето прво појавување пред Конгресот за време на сослушувањето во Сенатот за да разговара за регулативата за вештачка интелигенција. Неговото сведочење стана насловни страници откако тој го потроши поголемиот дел од него повикувајќи ги пратениците да ја регулираат неговата индустрија.
Altman's Worldcoin, проект кој комбинира криптовалута и докажување на личноста, исто така неодамна се појави во медиумите откако собра 115 милиони долари од финансирањето на Серија Ц, со што вкупното финансирање по три круга достигна 240 милиони долари.
Извор: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war