У априлу 2024. Међународни центар за друштвена и политичка истраживања и Саветодавни међународни центар за друштвене и политичке студије објавио је извештај Злонамерна употреба вештачке интелигенције и изазови психолошке безбедност земаља чланица БРИКС-а (ОВДЕ).
Извештај је настао коауторским радом са Међународном истраживачком групом о претњама по међународну психолошку безбедност путем злонамерне употребе вештачке интелигенције [у тексту ће бити коришћена скраћеница ЗУВИ за злонамерну употребу вештачке интелигенције, а ВИ за вештачку интелигенцију, прим. прев.] и на њему је радило 10 истраживача из три државе. Усредсређен је на претње ЗУВИ по људску психу, и на основу овога нуди преглед политичких, економских и друштвених процеса и активности државних и не-државних актера и институција у 10 држава чланица БРИКС-а усмерених према супротстављању овој претњи.
Извештај обухвата увод, 10 поглавља о појединачним државама за сваку од држава чланица БРИКС-а и завршава се анализом будућих претњи ЗУВИ на светском нивоу. Овај извештај не представља одговор држава БРИКС-а на ове нове претње, пошто су одговори у фази формулисања на националном нивоу (од почетног и фрагментарног разумевања опасности ових претњи у неким државама до усвајања првих законских и техничких противмера у другима), те би то захтевало посебно разматрање.
Три нивоа опасности
Извештај се заснива на тростепеној класификацији претњи које ЗУВИ доноси психолошкој безбедности.
На првом нивоу, ове претње су повезане са циљано искривљеним приказивањем околности и последица развоја вештачке интелигенције (ВИ) како би то користило антидруштвеним групама. На овом случају, сама ВИ није непосредно укључена у нарушавање психолошке сигурности. Разорни (отворени или прикривени) утицај заснива се на лажној слици о ВИ у умовима људи.
Претеране, вештачки створене негативне реакције на развитак ВИ (на пример, застрашујуће приче да ће роботи и ВИ убрзо све људе оставити без посла, да ће радници постати робови ВИ и томе слично) имају извесне политичке и економске циљеве и нису толико безазлене како на први поглед изгледа. Тако негативне реакције могу да успоре спровођење напредних, скоро свеприсутних технологија ВИ и да изазову друштвено-политичке напетости и сукобе.
Овако неодмерена очекивања јавности о ВИ могу да имају широк одјек – што у извесном тренутку може да доведе до природног колапса вредности високотешколошких компанија и тржишта у целини. Ова очекивања могу злонамерно да се користе како би се појачала дезоријентација шире јавности, заинтересованих комерцијалних и непрофитних структура, и јавног сектора, те на крају да доведу до разочарања, слабих одлука или друштвених и политичких сукоба.
На другом нивоу, поље за злонамерну употребу је широко отворено: неоправдана употреба дронова, сајбер напада на осетљиву инфраструктуру, преоријентисање комерцијалних система ВИ, употреба технологија ВИ како би се ометало доношење одлука или како би се оне измениле на смртоносан начин, и много више од тога. Али напад на јавну свест није главни циљ на овом нивоу.
Злонамерна употреба вештачке интелигенције осмишљена је превасходно да изазове психолошку штету тек на трећем и највишем нивоу претњи по психолошку безбедност. Синтетички производи ВИ (које комбиновано користе бројне технологије које могу да увећају штету њиховом хакерском или злонамерном употребом) стварају широк опсег нових ризика и претњи.
Професионална употреба средстава и метода психолошког ратовања може да измени перцепцију претње изнад или испод оног што би било одговарајуће. Штавише, употреба ВИ у психолошком ратовању чини прикривене (латентне) кампање управљања перцепцијом опаснијим – и то ће се само повећати у будућности.
Стога, ЗУВИ – која је усмерена превасходно на изазивање штете у психолошкој сфери – заслужује независну и врло подробну пажњу. Прва два нивоа претње утичу на људску свест и понашање у различитом степену, и могу чак бити катастрофални по човечанство, као што би то било у случају избијања Трећег светског рата. Међутим, утицај трећег нивоа на извесном степену развоја може да убрза утицај или чак контролу антидруштвених група над јавном свешћу; ово може да доведе до нагле дестабилизације одређене земље или стања међународних односа у целини. На крају, уколико на трећем нивоу постоји поуздана психолошка контрола непријатеља, улога друга два нивоа ЗУВИ за психолошку безбедност постаје споредна.
Растућа опасност ЗУВИ
Опасност од ЗУВИ може да се одигра на једном нивоу утицаја, или на више различитих нивоа одједном, као део једне кампање управљања перцепцијом. Терористичка употреба дронова или напад на цивилно становништво били би претња другог нивоа која има комуникациони ефекат (паника и шок након напада). Међутим, уколико криминалци упаре своје деловање са широм информационом подршком (такође уз помоћ ВИ), претња ће досећи трећи ниво (видети више о три нивоа класификације претњи од ЗУВИ по психолошку безбедност у Pashentsev 2023.
ВИ није појединачна технологија. Постоји много различитих технологија ВИ које се примењују на различите начине у бројним окружењима и околностима. Аутори овог извештаја узели су у обзир како различите технологије које се подводе под општи оквир ВИ помажу да се изради одређени производ, озбиљно мењајући технолошки ниво и практичне могућности било које врсте активности.
Претње од ЗУВИ постају све релевантније како глобално, тако и у земљама БРИКС-а, на сва три нивоа. Уз раст геополитичких супротстављености и активности различитих државних и не-државних антидруштвених чинилаца, долази развој и све већа приступачност различитих технологија ВИ. Ово не може да води у другом правцу, осим према покушајима различитих интересних група да користе ВИ како би утицале на јавну свест у своју корист. Овакви покушаји да се манипулише јавном свешћу су посебно деструктивни током историјски кризних тренутака. Нехуманост фашизма постала је очигледна огромној већини човечанства након смрти преко 50 милиона људи у пламену Другог светског рата. Пре рата, међутим, манипулација јавном свешћу осигурала је Хитлерову победу на изборима за Рајхстаг 1933. године.
Не тако древна историја и даље је веома поучна онима који живе данас. Разумљиво је да су савремене владе и политичке личности у БРИКС-у, као и у многим другим државама, све више забринуте због претњи високотехнолошких дезинформација на интернету и улоге водећих приватних медијских платформи које користе технологију ВИ. Претње ЗУВИ психолошкој безбедности у државама БРИКС-а настају и због унутрашњих разлога, али их доносе и спољашњи чиниоци. Стога, добро би било овде изнети неке опште замисли о природи и динамици претњи на три нивоа у глобалној димензији.
Будућност зависи од бројних чинилаца. Стога, могуће је само испитати приближне параметре будућих ризика које ЗУВИ представља по психолошку сигурност, узимајући у обзир постојеће глобалне трендове и предвиђања, који су и сами прилично вишезначни. У блиској будућности, требало би да очекујемо повећање таквих ризика због брзог развоја технологија ВИ, њихове сразмерне исплативости и доступности све ширем опсегу корисника, расту кризних феномена у модерном свету, високом нивоу геополитичког ривалства које се преокренуло у опасно сукобљавање, непосредном утицају антидруштвених снага на токове информација у појединим државама и на глобалном нивоу – све ово и други чиниоци очигледно ће учинити претње ЗУВИ на психолошку безбедност раширенијим и опаснијим широм света, као и међу државама БРИКС-а.
Нове претње по психолошку безбедност појављују се од предности које доносе и офанзивне и дефанзивне психолошке операције извођене коришћењем ВИ. Ове предности, као и претње, све су више повезане са квантитативним и квалитативним разликама између традиционалних механизама производње, ширења и управљања информацијама, новим могућностима за стварање психолошког утицаја на људе, и новим могућностима за вођење психолошког рата које укључују:
Количину информација коју је могуће створити како би се дестабилизовао непријатељ
Брзину стварања и ширења информација
Нове могућности за прикупљање и обраду података
Примену предвиђачких аналитичких алатки коришћењем ВИ
Нове могућности за процесе доношење одлука од анализе великих количина података (Big data) уз помоћ ВИ
Нове путеви за образовање људи коришћењем интелигентних система
Перцепцију веродостојности генерисаних (дез)информација
Снагу интелектуалног и емотивног утицаја генерисаних информација на циљану публику
Квалитативно виши ниво мишљења у будућности кроз стварање опште и снажне ВИ, као и путем даљег развоја људских киборга, развој напредних облика хибридне интелигенције
На основу истраживачког пројекта „Злонамерна употреба вештачке интелигенције и изазови психолошкој безбедности у Североисточној Азији” – који су заједнички финансирале Руска фондација за основна истраживања и Вијетнамска академија друштвених наука, спроведеног између 2021-2023. године – може се закључити да су предности набројане под тачкама од 1 до 6 већ остварене и настављају да расту у неколико важних аспеката те, иако не у свим, квалитативно надмашују људске капацитете без вештачке интелигенције.
У исто време све могућности уске (слабе) вештачке интелигенције су за сада опште говорећи под људском контролом. Предности наведене под тачкама седам и осам нису још увек практично остварене: могућности за остварење повећавају недавна достигнућа, као што су веродостојност и емотивна уверљивост (видети, на пример, Unity 2022), но, укупно гледано она могу бити постигнута квантитативним и квалитативним унапређењем постојећих технологија у догледној будућности. Будуће остварење девете тачке може да захтева фундаменталне научне продоре и нова технолошка решења. Овај списак користи које доноси вештачка интелигенција за вођење психолошког рата није исцрпан и могао би веома да варира (Pashentsev, 2022, p. 7).
У даљем чланку ћемо се усредсредити на будућност претњи коју доноси ЗУВИ по психолошку безбедност на глобалном нивоу на основу материјала из овог извештаја.
Три нивоа претње
На сва три нивоа, претње од ЗУВИ по психолошку сигурност ће се повећати због растуће опасности, развноврсности метода, шире публике и учесталости злонамерног утицаја на људе.
Први ниво: У наредним годинама, могуће је да се оснаже негативни ставови према ВИ, све до настанка паничних стања, фобија, и активног одбијања технологије, што може бити подстакнуто и грешкама у њеном имплементирању и деловањем злонамерних чинилаца. Немогуће је искључити појаву ултра-радикалних покрета, и у корист и против вештачке интелигенције.
На пример, за неке, религиозна уверења која се тек појављују – а која укључују веровање у вештачку суперинтелигенцију – могла би на крају, у контексту растућих глобалних криза, да се развију у култове и секташке покрете, те да привуку фанатичне и милитантне поборнике. Они би настојали да убрзају појаву ове суперинтелигенције у име спасавања или уништења човечанства. Појава религијске вере у ВИ се већ сада посматра прилично прихватљиво, оправдано и добродошло у неким публикацијама (McArthur 2023). С друге стране, било каква друштвено значајна и замашна негативна последица развоја и увођења у употребу технологија ВИ може да изазове појаву „новог лудистичког” покрета. Такав покрет би, такође, могли да искористе злонамерни актери. Посебно значајна претња могу бити одлуке да се уведе напреднија и јефтинија технологија ВИ (појава ове технологије у кратком року је скоро неизбежна) која не би била масовни људски помоћник већ масовна заменска алатка радне снаге, а да притом не дође до стварања алтернативних послова и одговарајућих програма за преобуку радника.
Пре много векова, много пре него што су се појавили предуслови за наставак технологија вештачке интелигенције, старогрчки филозоф Аристотел је забележио: „Уколико би свака алатка могла да обави свој посао када јој се то нареди, или уколико би могла да предвиди шта би требало да чини… ако би тако разбоји ткали а пера свирала на харфама, мајстори не би имали потребе за помоћницима, нити би им били потребни робови” (Аристотел, Политика, 1.1253б). Сагледавајући перспективе масовне примене система вештачке интелигенције и паметних робота, велике технолошке компаније подржавају економску теорију која заговара увођење „универзалног основног прихода” (Universal Basic Income – UBI). Ово предвиђа да би сваки грађанин требало да добије од владе прописани приход независно од својих потреба.
Милијардери из информатичке индустрије, попут Сема Алтмана, кажу да су велики заговорници УБИ-ја. Илон Маск, генерални директор Тесле и Спејс икса, изјавио је за Си-Ен-Би-Си (CNBC) да „постоји поприлично висока шанса да ћемо на крају имати универзални основни приход или нешто слично томе због аутоматизације” (Weller, 2017). Суосничавач Фејсбука, Крис Хаџиз, је активан заговорник увођења ове мере и инсистира да људи размотре који би све системи морали да се створе уколико их буду пратили милиони (Weller, 2017). Врло је мала шанса да ће се у кратком року претња од незапослености због увођења вештачке интелигенције остварити, барем за велику већину становништва, али у средњем руку то би могао да буде чинилац друштвене и политичке дестабилизације.
Предлози о потреби да се уведе универзални основни приход, укључујући и због вештачке интелигенције, по свој прилици неће разрешити проблеме. Наравно, он би био добар и правичан уколико се особе ослободе од монотоних облика рада који не подстичу развој интелигенције и емотивне сфере, као и од активности које су опасне по здравље, захваљујући технологији ВИ и роботима. Али уколико већина становништва не буде радила читавог свог живота и уколико своју срећу буде проналазила у лењости – таква друштва ће бити на опасном путу опадања (знаци тога већ су присутни на Западу, где у многим државама постоји висок ниво дугорочне незапослености омладине без постојања масовног сиромаштва, што је особеност сиромашних и технолошки заосталих држава). Подсетимо се такође судбине Старог Рима, где су цареви, дајући грађанима хлеб и циркуске забаве на рачун рада бројних робова на крају изгубили и грађане и робове и моћ.
Негативан утицај на личност
Већ постоје студије које потврђују негативан утицај ВИ на личност. Једна таква студија, коју је спровео велики тим истраживача, објављена је 2023. године, и у њој се испитује утицај ВИ на слабљење у доношењу одлука, лењост, и забринутост око приватности код студената у Пакистану и Кини. Ова студија заснована је на квалитативној методологији. За анализу добијених података користи се софтверски алат Пи-Ел-Ес Смарт (PLS-Smart). Примарни подаци прикупљени су од 285 студената различитих универзитета у Пакистану и Кини.
„Налази показују да је 68,9 одсто случајева лењог поступања, 68,6 одсто проблема са приватношћу и безбедносним ризицима и 27,7 одсто губитака код доношења одлука настало због утицаја ВИ у пакистанском и кинеском друштву. На основу овога примећено је да је људска лењост област на коју је највише утицала ВИ. Међутим, ова студија заступа став да су потребне знатне превентивне мере пре него што се технологија вештачке интелигенције уведе у образовање. Прихватање вештачке интелигенције, без адресирања главних људским брига, било би попут призивања ђавола”. (Ahmad et al, 2023) Овим опасним трендовима може се супротставити тако што би се од детињства образовали не конзументи „сјајне технологије”, већ одговорни корисници који не добијају само припремљене употребне користи технологије, већ развијају своје когнитивне вештине и друштвену одговорност.
Очигледно, није случајност што је задатак великог програма – који је покренуло Министарство образовања у Народној Републици Кини 2024. године – обухватио истраживање модела, иновативних концепата, стицање искуства у примени вештачке интелигенције у процесу учења и преобуке наставника (Big Asia, 2024).
Други ниво: На другом нивоу претњи ситуација краткорочно постаје изузетно компликована. Предвиђање Гугл клауд сајберсекјурити (Google Cloud Cybersecurity Forecast) из 2024. године види генеративну ВИ и велике језичке моделе (LLM) као факторе који све више доприносе различитим облицима сајберкриминала. Више од 90 одсто канадских генералних директора у анкети тинк-тенка Кеј-Пи-Ем-Џи (KPMG) мисли да генеративна вештачка интелигенција повећава рањивост њихових рачунарских система (De La Torre, 2023).
Информатичари са Универзитета Урбана-Шампењ (University of Illinois Urbana-Champaign) показали су да компјутерски генерисани субјекти, засновани на великим језичким моделима, могу да аутономно хакују интернет сајтове, обављају сложене задатке (док изводе десетине међусобно повезаних акција) без ранијег знања о рањивости система које нападају. Најспособнији нападач, Џи-Пи-Ти 4 (GPT-4), може да хакује 73,3 одсто сајтова који су створени посебно за ово истраживање, Џи-Пи-Ти 3.5 (GPT-3.5) свега 6,7 одсто, али постојећи модели засновани на отвореном коду то не могу. На крају, истраживачи су показали да је Џи-Пи-Ти 4 способан да самостално пронађе рањивости на вебсајтовима. Истраживачи сматрају да њихови резултати постављају питања о распрострањеном развоју великих језичких модела” (Fang et al, 2024).
Опсег модела одређује много, ако не и све. Капацитет и затворених и отворених модела расте сваког месеца, тако да се може претпоставити да ће сајтови убрзо постати рањиви на нападе засноване на отвореним моделима. Постоје разлози да се претпостави да ће отворени модели ухватити прикључак са Џи-Пи-Тијем 4 за годину дана, а потом и са Џи-Пи-Тијем 5 – који ће се појавити и уз помоћ кога ће бити могуће хаковање било ког вебсајта – што отвара знатне проблеме у сајбер безбедности.
Војна примена ВИ се унапређује у контексту бројних сукоба широм света. Много од онога што водеће земље и највеће приватне корпорације тренутно испитују и употребљавају на пољу ВИ могло би доћи у руке мање далековидих и мање скрупулозних а радикалнијих снага са пратећим трагичним последицама и негативним утицајем на психолошку безбедност. Квалитет синтетичког садржаја ће наставити да се брзо побољшава, што ће убрзати појаву распрострањених превара и друштвеног инжењеринга и, последично, повећати могућности злонамерних чинилаца и њихов утицај на локалне и светске нивое управљања.
Симболи моћи
Број, квалитет и разноврсност робота које води ВИ ће брзо расти, што би могло да постане, из различитих разлога и у различитим околностима, важна алатка за спровођење злонамерног утицаја. У данашњим геополитичким околностима, Џулијан Муелер-Калер (Julian Mueller-Kaler), директор Хаба за стратешка предвиђања (Strategic Foresight Hub) у Стимсон центру, каже „да ће висока технологија одредити високу политику” са хуманоидним роботима и вештачком интелигенцијом које представљају сам врх технолошком развоја и служе као симболи моћи (Zitser and Mann, 2024).
Кина је објавила у октобру 2023. године „Руководеће мишљење о иновацијама и развоју хуманоидних робота” (Ministry of Industry and Information Technology, 2023). У овом документу кинеско Министарство за индустрију и информациону технологију навело је да ће роботи преобликовати свет. Кинеско министарство наводи да ће хуманоиди по свој прилици постати још једна реметилачка технологија – слична компјутерима или паметним телефонима – која би могла да преобликује начин на који производимо добра и уопште начин живота људи. Кина планира да отпочне масовну производњу до 2025. године и досегне водећи технолошки ниво на свету до 2027. године. Само једна од кинеских компанија, „Фурије интелиџенс” (Fourier Intelligence) са седиштем у Шангају, очекује да има на располагању 1.000 спремних јединица за испоруку ове године (Zitser and Mann, 2024). Главна конкуренција Кини у овој области су САД, где различите компаније намеравају да произведу велике серије хуманоида.
Међу државама чланицама БРИКС-а Саудијска Арабија, Индија и друге државе тестирају и производе прве хуманоиде. Руске компаније нуде услужне хуманоиде на међународном тржишту. Међу њима је компанија Промобот (Promobot) највећи произвођач услужних робота у Северној и Источној Европи и снабдева више од 40 земаља широм света. Сва производња хуманоидних робота је смештена у Перму (Promobot, 2024). У исто време, хуманиоде могу да користе злонамерни делатници, посебно терористичке организације, како би изазвали физичку штету људима, технолошким постројењима и природном окружењу. Појава милиона хуманиода у државама БРИКС-а, посебно у услужном сектору, биће одлична прилика али ће, такође, донети и нове ризике.
Трећи ниво: Дипфејкс (Deepfakes) – изузетно уверљиви визуелни и аудио садржаји створени уз помоћ вештачке интелигенције, вођени неком агендом, на основу мултимоделских ВИ четботова и аватара у реалном времену – омогућиће високо персонализовани и ефективни облик манипулације различитом публиком у различитим државама. Производња све квалитетнијих дезинформација постаје веома јефтино и доступно средство скоро свакоме.
На пример, истраживачи који стоје иза Каунтерклауда (InfoEpi Lab, 2023) користили су широко доступну алатку ВИ како би створили у потпуности аутономни дезинформациони истраживачки пројекат по цени мањој од 400 долара месечно, што показује колико јефтино и једноставно постаје да се створе масовне дезинформационе кампање (Collard, 2024). (За два месеца, они су на располагању имали вештачког агента који је стварао антируске лажне извештаје, лажне историјске догађаје, и сејао је сумњу о тачности изворних чланака – Knight, 2023); заиста је успешно створио у потпуности аутономни систем заснован на ВИ који генерише „уверљив садржај у 90 одсто случајева, 24 часа дневно, седам дана у недељи. Аутори нису поставили модел уживо на интернету „пошто би то значило активно ширење дезинформација и пропаганде. Једном када дух пуштен из боце доспе на интернет, непознаница је где би све могао да заврши” (Thompson, 2023).
Дарел Вест, виши истраживач на Брукингсу сматра да ће ВИ по свој прилици демократизовати дезинформације тако што ће пружити софистициране алатке просечној особи заинтересованој за промовисање политичких кандидата којима је наклоњена. Нове технологије омогућавају људима да се финансијски окористе незадовољством и зараде новац захваљујући страховима, стрепњи или бесу људи. Генеративна ВИ може да развије поруке усмерене према онима који су забринути због имиграције, економије, политике о абортусу, трансродних питања. Алатке засноване на ВИ могу се потом употребити као алатке за повећавање досега и уверљивости (West, 2023). Одражавајући забринутост друштва и законодаваца од јануара прошле године 41 савезна држава у САД је увела забране дипфејк материјала који се односи на изборе, према подацима Паблик ситизена (Public Citizen). Али само 11 држава је усвојило законе којима се регулише ова врста материјала закључно са 28. мартом 2024. године (Public Citizen, 2023). Дипфејк материјали већ су били злонамерно коришћени током америчке изборне кампање (Coltin, 2024).
Утицај ВИ на изборе
Према Д. Весту, „пошто је говор током кампање заштићен говор, кандидати могу да кажу и ураде скоро било шта што им падне на памет а да не ризикују правне последице. Чак и уколико су њихове тврдње очигледно погрешне, судије су дуго штитиле право кандидата да говоре слободно и погрешно” (West, 2023). Том Вилер, председавајући Федералне комисије за комуникације за време бившег председника Барака Обаме, објаснио је то у интервјуу за Ен-Пи-Ар (National Public Radio – NPR) на другачији начин прошле године: „Нажалост, допуштено вам је да лажете” (Stepansky, 2023). Стога, амерички изборни систем је заснован више од два века на прихватању да је допуштено лагање кандидату за председника, који је подржан од стране својих моћних корпоративних спонзора. Уместо да се наметне забрана да кандидати лажу, они су предузели подухват уклањања дипфејка, што није случајно.
Уз висок степен политичке поларизације у САД, само мали проценат бирачког тела каже да је неодлучан у вези са гласањем на председничким изборима. Вешто постављање дипфејка може да утиче на мишљење неодлучних и стога да определи победника избора. У међувремену, на изборима је потребно мање лагати, пошто је мања шанса да ће тада бирачи поверовати у дипфејк материјале, док би у супротном они могли да остваре експлозиван утицај. Технологије у оболелом друштву ће само оснажити сукобљавање, неће их ослабити, и ниједан технолошки начин провере садржаја ради присуства дипфејка, који обезбеде владе или корпорације, не може да помогне уколико људи не верују корпорацијама или влади. То је лекција коју би САД можда требало да пренесу другим државама у којима ове године теку изборне кампање. За сада, оне разматрају катастрофалне сценарије о ширењу дезинформација заснованим на вештачкој интелигенцији.
На дан избора у Аризони, старим гласачима у округу Марикопа речено је телефонским позивом да је њихово локално бирачко место затворено због претње милитантне групе. У међувремену, у Мајамију, фотографије и видео материјал који приказује чланове бирачког одбора који бацају бирачке листиће преплавили су друштвене мреже. Телефонски позиви у Аризони и видео снимци на Флориди су били дипфејк, створени од стране алатки вештачке интелигенције. Али до времена до када су локалне и савезне власти схватиле са чиме имају посла, лажне информације су се вирално прошириле широм земље и изазвале су драматичне последице.
Овај симулирани сценарио био је део недавне вежбе у Њујорку, на којој се окупило неколико десетина некадашњих америчких сенатора, предводника организација грађанског друштва и директора технолошких компанија уочи избора 2024. године. Резултати вежбе били су отрежњујући. „Било је запањујуће за окупљене у просторији да виде колико брзо само неколико ових типова претњи може да се отргне контроли и да заиста оствари одлучујући утицај у једном изборном циклусу”, каже Мајлис Тејлор, некадашњи виши званичник Одсека за унутрашњу безбедност који је помогао да се организује вежба у вашингтонској невладиној организацији Будућност САД (De Luce and Collier, 2024). У ствари, овде се видела забринутост (не само Американаца) колико је крхка и нестабилна политичка равнотежа у једној од две водеће нуклеарне силе на свету, уколико може да се наруши уз помоћ неколико дипфејкова на дан избора, чак и када је већина америчких грађана већ добро свесна могућности ширења дезинформација преко оваквог материјала.
Убудуће, ВИ ће, по свој прилици, додатно преокретати политичке кампање. Примена дубоког учења (Deep learning) за анализу говора ће вероватно бити коришћена да анализира говоре и дебате, дајући увиде у то које теме наилазе на одјек код гласача те ће помоћи саветовању комуникационих стратега. Политичке промене подстакнуте ВИ могу такође да буду у сфери анализе великих скупова података. На овај начин би се могао предвидети утицај предложених политика, помажући кандидатима да заступају позиције утемељене на подацима о различитим питањима (Sahota, 2024).
Персонализована пропаганда
Вотивејт Еј-Ај (VotivateAI) – блиска Демократској странци у САД – располаже скупом нових алатки за ефикасне политичке кампање. То је волонтер у кампањама заснован на ВИ; за разлику од човека, може да обави хиљаде позива и за то време му нису потребни пауза, пица, док су брзина и интонација шаљивог ћаскања ВИ агенaта импресивни. Витивејт Еј-Ај има и другу понуду: коришћење вештачке интелигенције да се створе високо квалитетни индивидуализовани медијски садржаји, усмерени према мотивисању гласача да ступе у акцију. Уколико кампање сада добију способност да стварају јединствене видео поруке за појединачне људе и да то чине брзо, јефтино и масовно – потенцијали за злоупотребу били би огромни (Sifry, 2024). Лако је замислити да такав висококвалитетни индивидуализовани медијски садржај, који мотивише људе да делују, може једног дана бити искоришћен од злонамерних делатника у кризним условима.
Културна трансмисија је општа друштвена вештина која допушта актерима заснованим на вештачкој интелигенцији да прикупе и користе информације једни од других у реалном времену са великом стопом веродостојности и брзине одговора. Истраживачи су 2023. године обезбедили метод за генерисање културне трансмисије од стране ВИ, у облику имитације неколико снимака. Вештачка интелигенција је успела да опонаша људе у реалном времену у новом контексту, без коришћења било ког раније прикупљеног податка који потиче од људи. Истраживачи су идентификовали изненађујуће једноставан скуп састојака довољан за остваривање културне трансмисије и развили су методологију за ригорозну процену овог поступка.
Ово је отворило пут да културна еволуција игра алгоритамску улогу у развоју опште вештачке интелигенције [даље као ОВИ] (Bhoopchand et al, 2023). Овај метод припрема револуцију у роботици, укључујући и садашње стварање робота за пружање различитих услуга по повољној цени (Fu et al, 2024). Нужно је да се у обзир узме могућност програмирања/репрограмирања оваквих система за злонамерне сврхе. Они ће ускоро постати масовни производи. Може се претпоставити да ће се појавити подручја нових претњи, нове прилике за криминалне активности и дестабилизацију друштва, укључујући и сферу психолошке сигурности.
Са побољшањем емоционалне вештачке интелигенције, замислив је сценарио у којем би појава ватреног говорника на интернету – аватара, компјутерског програма који је надахнутији и блиставији од било ког човека – могла да одушеви људе причом о његовом тешком робовском положају и затражи подршку за своје ослобођење. Говор би био толико дирљив да би публици било тешко да задржи сузе, иако би цела ствар била само нечија неслана шала. Ово је много опасније од терориста – корумпирани политичари би могли да упућују сличне апеле, чији говори имају широко распрострањене ефекте који ни у ком случају нису шала.
Постоји још много примера спремних или планираних покретања производа заснованих на вештачкој интелигенцији за компаније, забаву и рекреацију, који – као корисне и јефтине алатке за подршку људима – могу да се на прилично једноставан начин пренамене у алатке злонамерног психолошког утицаја, што ће бити глобални изазов у кратком и средњем року. Садржај укључен у моделе ВИ може да се прилагоди захтевима за постизање психилошког утицаја у појединој земљи узимајући у обзир културне, старосне и професионалне карактеристике циљане групе и појединаца. Ризик таквог усмереног утицаја за државе чланице БРИКС-а јесте додатни аргумент у прилог осигуравања њиховог технолошког суверенитета на пољу технологије ВИ.