Евгениј Пашењцев: Психолошке злоупотребе вештачке интелигенције (2)

Евгениј Пашењцев

Претходна анализа заснива се на конзервативном сценарију за краткорочни (трогодишњи) и средњорочни временски период до око 2040. године: брзи раст већ постојећих система „уске” вештачке интелигенције (УВИ), укључујући њихове напредне мултимодалне и вишеструке моделе, поплочава пут према будућој општој вештачкој интелигенцији (ОВИ), на људском нивоу. Међутим, ово не искључује, већ претпоставља способност ОВИ да изводи све врсте задатака као особа или чак боље од особе и јефтиније од особа, као и да се опроба у окружењу где особе не могу да делују због физичког окружења.

Брзи квалитативни продори у развоју технологија вештачке интелигенције (ВИ), појава ОВИ и снажне ВИ су такође могући у блиској будућности. Снажна ВИ располагала би са еквивалентом (релативно блиским или удаљеним) људској свести и, посебно, таквим мотивационим факторима понашања као што су жеље, намере, воља (воља у смислу командовање самом себи како би се испуниле сопствене тежње). Без субјективности било би изузетно тешко повући смислену разлику између снажне ВИ и машинске ОВИ. ЗУВИ на ступњу уске и опште ВИ ће имати ексклузивно антропоморфни карактер. Само уз стварање снажне ВИ и, посебно, под неповољним предусловима и штетним утицајима, може да се појави злокобни субјекат ВИ.
Нова реалност

Под утицајем снажног напретка у генеративној вештачкој интелигенцији током 2022. и 2023. године, бројни генерални директори водећих компанија на пољу ВИ и добро познати специјалисти за ВИ су објавили могућност преласка на ОВИ у наредним годинама (Altman 2023, Antropic 2024, Kudalkar 2024, Bove 2023). Очигледно је да су одређени интереси у индустрији вештачке интелигенције такође утицали овде, чије је присуство почетком 2024. године препознао Демис Хасабис, извршни директор Гугловог Дип мајнда (Demis Hassabis, the Google’s DeepMind CEO).

Према његовим речима огромна средства слила су се у сектор ВИ што је довело до наглашеног ентузијазма и поприлично опортунистичког понашања. Инвеститори су определили скоро 30 милијарди долара за договоре повезане са генеративном ВИ током 2023. године, према Пич Буку (PitchBook) (Tan, 2024). Тешко да је случајно Сем Алтман радикално променио своје процене доступне у медијима током 2023. и 2024. године у погледу ОВИ. У објави на блогу компаније Опен Еј-Ај (Open AI) из фебруара 2023. „Планирање за ОВИ и време после ње” Алтман је написао да „неприлагођенa суперинтелигентна ОВИ може да жестоко нашкоди свету; аутократски режим са одлучујућим вођством у сфери суперинтелигенције може да учини управо то” (Altman, 2023). Након што је Мајкрософт – главни инвеститор у Опен Еј-Aј – оснажио своје позиције у компанији, Алтманова процена ризика од ОВИ постала је далеко умеренија. (Goldman, 2024).

Међу ширим круговима специјалиста, постоје много конзервативније процене о вероватноћи стварања ОВИ, али и они нумерички одређују ову вероватноћу на око 90% у наредних 100 година, док према неким истраживањима наслућују да ће бити потребно знатно мање времена. Током неколико претходних година – због великог напретка у овој области – истраживачи су знатно изменили своја предвиђања.

У највећем истраживању ове врсте објављеном 2024. године група истраживача из САД, Велике Британије и Немачке испитивала је 2.778 стручњака који су објављивали радове у водећим часописима о ВИ, питајући их за њихова предвиђања о брзини напретка ВИ и природи и утицају напредних система ВИ. Збирно, процењују да су шансе да машине без било какве помоћи надмаше људе у вршењу било ког задатка 10% до 2027. године, односно 50% до 2047. године. Потоња процена је 13 година скорија од оне из сличног истраживања које је спроведено само годину дана раније. Међутим, шанса да сва људска занимања постану у потпуности аутоматизована процењује се на 10% до 2037, и 50% до 2116. (у истраживању из 2022. године потоње време је процењивано до 2164). (Grace et al, 2024).

Као и увек када је присутан висок ниво несигурности, важно је нагласити да она може да се очитује у два правца. Могуће је да смо веома далеко од ВИ која би била на људском нивоу, али такође то може значити да имамо врло мало времена да се припремимо (Roser, 2023).

Постоје и друге, сада слабије развијене путање за кретање према ОВИ осим великих језичких модела (ВЈМ). Можда би то могли да буду квантни компјутери који су у раној фази практичне примене. Универзитет Западни Сиднеј је покренуо пројекат стварања неуроморфичког суперкомпјутера Дип Саут (DeepSouth) способног да изводи 228.000 милијарди синаптичких операција по секунди, као што чини људски мозак. Дип Саут би требало да се операционализује до априла 2024. године (Western Sydney University, 2023).

Вредност тржишта неуроморфичких чипова процењује се на 0,16 милијарди долара 2024. године, а очекује се да ће достићи 5,83 милијарди 2029. године (Mordor Intelligence, 2024). Биолошки компјутери или „органоидна интелигенција” такође напредује. Можда ВЈМ неће моћи да се преобрате у општу вештачку интелигенцију али нови квалитет когнитивних могућности будућих ВЈМ-ова ће помоћи да се то постигне.

Очигледно, уколико се могућност појаве опште вештачке интелигенције оствари у наредној деценији, то ће дати модерном човечанству – дубоко подељеном у друштвеном и геополитичком погледу – изузетно мало времена да се адекватно припреми за долазак нове реалности.
Алармантан тренд

У прилог револуционарног и релативно брзог скока у технологији говори доказано ефикасна употреба УВИ у истраживањима. То може – уз будућа унапређења – да обезбеди значајан допринос настанка ОВИ у кратком року. Прелаз на квалитативно нове могућности за ВИ у пољу истраживања ће неизбежно водити до врло брзог раста у другим наукама и технологијама. То ће отворити нове могућности, али и створити опасности другог реда.

Може се рећи да ће специјализована ВИ високог когнитивног нивоа (HLCAI) – способна на основу програмираних циљева да ствара нова знања у различитим научним и технолошким пољима – брже и на квалитативно вишем нивоу од било ког људског бића, радикално преобразити друштво, иако нека знања до којих би дошла могу да је униште чак и без учешћа злонамерних чинилаца. Да ли ће HLCAI бити део ОВИ или непосредни предуслов за њено стварање – будућност ће показати. И HLCAI и ОВИ могу бити лако претворени у разноврсно оружје за масовно уништење.

Тешко је сложити се са изјавом компаније Антропик (Antropic) коју су основали бивши чланови Опен Еј-Аја када кажу: „Који ће облик будући системи вештачке интелигенције имати – да ли ће, на пример, бити способни да делују независно или ће само стварати информације за људе – остаје да се одреди” (Antropic. 2024). Уколико претпоставимо да ће ОВИ (или HLCAI) постати доступнија већем броју делатника него нуклеарно наоружање 1945. године, онда постојање некога ко би задао задатак ВИ да развије пројекат снажне ОВИ може да се предвиди, ако не и велика вероватноћа брзог остварења оваквог пројекта.

Тимови компаније Антропик развијају законе раста вештачке интелигенције, показујући да је могуће направити ВИ паметнијом на предвидљиве начине, само тако што ће се учинити већом и што ће се тренирати на основу веће количине података (Antropic, 2024). До краја ове или почетком наредне деценије 21. века, количина рачунарске моћи коришћена за тренирање најнапреднијих модела вештачке интелигенције могла би да буде 1.000 пута већа у односу на ону која се користи за тренирање Џи-Пи-Ти 4 (GPT 4.0).

Уколико се урачуна и побољшање алгоритамског процеса, количина ефективне рачунске моћи могла би да буде отприлике милион пута већа од оне која се користи за Џи-Пи-Ти 4. Постоји извесна несигурност о томе када би ови технолошки прагови могли да буду пређени, али овај ниво раста делује могуће достићи у оквиру предвиђених цена и хардверских ограничења (Scharre 2024, p. 6).

На оваквим прорачунима се добрим делом заснива брзи раст највећег светског произвођача миркочипова, компаније Енвидиа (Nvidia), која је почетком априла имала тржишну капитализацију од 2,259 хиљада милијарди долара (3.111 хиљада милијарди долара 27. јуна; прим. НС), а треба нагласити да је 2020. године износила само 136 милијарди (CompaniesMarketcap, 2024). То је чини трећом највреднијом компанијом по тржишној капитализацији (средином јуна 2024. је постала највреднија компанија на свету; прим. НС).

Џенсен Хуанг (Jensen Huang), генерални директор Енвидије, одговарајући на економском форуму Стенфорд универзитета на питање колико би било потребно да се створе рачунари који размишљају као људи, рекао је следеће: „Уколико дамо ВИ сваки могући тест који можете да замислите, можете направити списак тестова и ставити их пред информатичку индустрију, и нагађам да бисмо у наредних пет година добро прошли на сваком од њих” (Nellis, 2024).

Присутан је алармантни тренд у правцу концентрације капацитета вештачке интелигенције у рукама малог броја корпоративних чинилаца, што умањује број и разноврсност истраживача способних да се носе са најнапреднијим моделима (Scharre 2024, стр. 6). Требало би очекивати да ће велике технолошке компаније настојати да даље учврсте контролу над обећавајућим компанијама, пошто монополистички расположу средствима нужним за развој вештачке интелигенције. Уколико цена стварања моћнијих великих језичких модела постане претерано висока и за највеће корпорације, а могућност стварања опште вештачке интелигенције ускоро постане врло висока, америчка влада може да финансира пројекте рада на ОВИ, пошто располаже много већим могућностима за тако нешто чак и у односу на велике корпорације.
Екстремна несигурност

Председник Бајден је 30. октобра 2023. године издао извршно наређење о безбедној, сигурној и поузданој вештачкој интелигенцији. У документу се установљују „… нови стандарди за сигурност и безбедност ВИ, заштиту америчке приватности, висок ниво једнакости и људских права, заштиту права потрошача…” и обећава се „заштита Американаца од превара и обмана које би омогућила ВИ…” (White House, 2023). У исто време, извршно наређење практично потчињава водеће развојне тимове на пољу ВИ стриктној државној контроли:

„Према Акту о одбрамбеној производњи, наређење ће захтевати да компаније које развијају било који фундаментални модел који представља озбиљан ризик по националну безбедност, националну економску сигурност или национално јавно здравље и безбедност морају да обавесте федералне власти када тренирају модел, и морају да поделе резултате са тимовима који се баве информатичком безбедношћу”. (White House, 2023). Практично све гране и правци развоја ВИ потпадају под захтев овог извршног наређења, с обзиром да је реч о технологији двојне намене. Очигледна милитаризација ВИ у САД по свој прилици неће моћи да иде руку под руку са жељом за „унапређење једнакости и грађанских права“ у процесу развоја и имплементације ВИ.

У јануару 2024. године, Бајденова администрација је издала обавештење о „Кључним потезима о ВИ на основу прекретничког извршног овлашћења председника Бајдена”. Међу различитим мерама које нацрт прописује јесте предлог да се америчким компанијама за клауд рачунарске системе, које обезбеђују рачунарску снагу страном увежбавању ВИ, наметне да подносе извештаје како и када то чине. „Министарство трговине може, уколико се прихвати предложено, да захтева од провајдера услуга клауд рачунарства да упозоре владу када страни клијенти увежбавају своје најмоћније моделе, што може да буде употребљено за злонамерне активности”. (White House, 2024).

Екстремна несигурност коју изражава став „…који би могли бити коришћени за злонамерне активности” може на крају да ускрати свим другим страним државама и не-државним чиниоцима употребу рачунарске моћи САД како би тренирали обећавајуће моделе. Стога, у САД, две институције, велике информатичке компаније и председничка администрација – којима не верује већина Американаца – ће контролисати развој обећавајућих облика ВИ, умањиће јавну контролу (имајмо на уму Акт о одбрамбеној производњи и претње по националну безбедност), и коначно сузити могућности за ширу међународну сарадњу. Наравно, претње по америчку националну безбедност од злонамерне употребе ВИ објективно постоје, али није сигурно од кога би могле да дођу.

Сценарији о друштвеном развоју и ризику за психолошку безбедност на нивоу напредне АНИ и преласка на ОВИ, као и о могућностима и претњама које би донела појава снажне ВИ и суперинтелигенције размотрени су детаљно у ранијим ауторовим радовима објављеним од 2020-2023. године (Pashentsev, 2020 and 2023b).

Брз развој и увођење шире примене технологија ВИ последњих година потврђује чињеницу да је човечанство ступило у нову индустријску револуцију, те да се мењају технолошки обрасци. Али сама природа технолошке револуције засноване на ВИ, њене огромне могућности, и у истом тренутку егзистенцијални ризици са којима се суочава човечанство, по први пут захтевају да особа прође кроз процес психолошке иновације и когнитивне промене. Овладавање новим способностима захтеваће квалитативно нов ниво друштвене организације и одговорности да се не би изгубила контрола над технологијом, чиме би се избегао настанак сингуларности. Да бисмо избегли сингуларност, потребно је да владамо новим технологијама, не престајући да будемо људи. То је историјски изазов.

?>