МОРАМО УСПОРИТИ РАЗВОЈ ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ

Развој вештачке интелигенције одвија се неупоредиво брже него што је било ко предвидео, али њено усклађивање са етичким нормама људског друштва не напредује ни изблиза тако брзо
 
Писац овог чланка је инвеститор и коаутор годишњег извештаја „Стање вештачке интелигенције“ (State of AI) и инвеститор у преко 50 компанија које се баве развојем система вештачке интелигенције
Фото: Drew Graham on Unsplash
Једне хладне фебруарске ноћи, био сам на вечери у дому једног лондонског истраживача вештачке интелигенције, заједно са омањом групом стручњака из те области. Он станује у поткровном стану солитера смештеног у једном од модернијих блокова таквих зграда, са прозорима од пода до плафона кроз које пуца поглед на панораму града и железнички терминал из 19. века. Упркос ударној локацији, домаћин живи једноставно, а ентеријер његовог дома је чак помало аскетски.
 
Током вечере, окупљена екипа је разматрала значајне продоре, као што су Чет Џи Пи Ти (енг. „ChatGPT“) компаније Опен Еј АЈ (енг. „OpenAI“) и Гејто (енг. „Gato“) Дип Мајнд (енг. „DeepMind“), и брзину којом су се у последње време милијарде долара слиле у вештачку интелигенцију (ВИ). Једном од гостију, који је постигао значајна остварења у овој индустрији, поставио сам питање које се често чује на оваквим скуповима: колико смо далеко од „генералне вештачке интелигенције (ГВИ)“? ГВИ се може дефинисати на много начина, али углавном се своди на компјутерски систем способан да ствара нова научна знања и обавља све задатке које могу и људи.
 
Већина експерата долазак ГВИ види као историјску и технолошку прекретницу, попут цепања атома или изумећа штампарије. Важно питање у том смислу одувек је било колико смо далеко од таквог достигнућа. Мој саговорник није дуго размишљао о одговору: „Могуће је, од сада па надаље“, рекао је.
 
Ово није универзално гледиште. Процене варирају у распону од деценије до пола века или више. Сигурно је међутим да је стварање ГВИ експлицитни циљ водећих компанија за ВИ, и оне се крећу ка њему далеко брже него што је било ко очекивао. Као што су се сви на вечери сложили, овакав развој изнедриће озбиљне претње за будућност људске врсте. „Ако мислиш да смо близу нечега толико опасног“, рекао сам истраживачу, „зар не би требало да упозорите људе шта се дешава?“ Очигледно се мучио са одговорношћу са којом се суочава, али изгледа да га, као и многе друге у овој области, вуче муњевитост прогреса.
 
Када сам се вратио кући, мислио сам на своје четворогодишње дете које ће се пробудити за пар сати. Док сам размишљао о свету у којем ће можда одрастати, постепено сам из шока прелазио у стање беса. Делује дубоко поремећено да круцијалне одлуке које би потенцијално могле да утичу на свеколики живот на планети доноси шачица приватних компанија без демократског надзора. Да ли људи који јурцају да направе прву праву ГВИ намеравају да успоре и пусте остатак света да размотри шта то они раде? И када кажем „они“, заправо мислим „ми“, пошто сам и ја део ове заједнице.
 
Неочекивани ужас
 
Моје интересовање за машинско учење почело је 2002. године, када сам направио свог првог робота негде у лавиринтима инжењерског одсека Универзитета Кембриџ. Била је то стандардна активност за студенте инжењерства, али опчињавала ме је помисао да машину можете научити да се креће кроз свет и учи из својих грешака. Одлучио сам да се специјализујем за компјутерски вид, па сам правио програме који могу да анализирају и разумеју слике, а 2005. године сам направио систем који је могао да научи да прецизно маркира слике биопсије рака дојке. Радећи то, назирао сам будућност у којој ВИ чини свет бољим, па чак и спасава животе. Након универзитета, био сам суоснивач стартапа за музичке технологије, који је купљен 2017. године.
 
Од 2014, подржао сам преко 50 стартапова за ВИ у Европи и САД, а 2021. сам покренуо нови фонд ризичног капитала (енг. „venture capital fund “), под називом „Plural“. У неким компанијама које су пионири у својим пољима, имам улогу инвеститора-анђела (енг. „angel investor “ – тип инвеститора чији је мотив помагања младој компанији испред мотива профита, прим. прев.), као нпр. у Антропику (енг. „Anthropic “), једном од најиздашније финансираних стартапова генеративне ВИ (енг. „generative AI “ – тип ВИ који генерише креативне садржаје визуелног, звучног, текстуалног или мултимедијалног карактера, прим. прев.), и Хелсингу, водећој европској компанији за војну ВИ. Пре пет година, почео сам да истражујем и пишем годишњи извештај под називом „Стање ВИ“, са још једним инвеститором, Нејтаном Бенајхом, што је данас годишњак који се нашироко чита. На тој поменутој фебруарској вечери, значајне бриге које ми је мој рад наметнуо у протеклих пар година консолидовале су се у нешто неочекивано: ужас.
 
Скраћеница од три слова не успева да дочара гигантске размере онога што би ГВИ представљала, па ћу је називати ониме што јесте: боголика вештачка интелигенција, односно суперинтелигентни компјутер који учи и развија се аутономно, који разуме своје окружење без потребе за надзором и у стању је да трансформише свет око себе. Да не буде забуне, још увек нисмо стигли дотле. Али природа ове технологије значи да је екстремно тешко предвидети када ћемо тачно стићи до те тачке. Боголика ВИ би била сила изван наше контроле и способности разумевања, а могла би да учини људску врсту превазиђеном или је чак и истреби.
 
Недавно се надметање око стварања боголике ВИ, у којем учествује неколицина компанија, рапидно убрзало. Оне још увек не знају како да трку ка свом циљу учине безбедном и нису ни под чијим надзором. Трче ка финишу без разумевања шта се налази са друге стране.
 
Како смо уопште стигли дотле? Очигледни одговор је да су рачунари постали моћнији. Табела испод показује како су се количина података и „компјутерска моћ“ – тј. процесорска снага потребна за тренирање система ВИ – увећавали током последње деценије и до каквих је резултата то довело. При томе, „Број операција са покретним зарезом у секунди“ (енг. „Floating-point Operations Per Second“ – FLOPS)) је јединица мере која се користи за израчунавање снаге суперкомпјутера. Ова генерација ВИ је веома ефикасна у апсорбовању података и компјутерској моћи. А што више тога буде добијала, то значи да постаје све моћнија.
 
 
Табела која показује поређење могућности вештачке интелигенције у 2012. и 2022. години (Извор: Фајненшел тајмс)
 
Компјутерска моћ која се користи за обучавање модела ВИ увећала се по стопи од стотину милиона за протеклих десет година. Од обучавања на релативно малим сетовима података, стигли смо до тога да ВИ хранимо читавим интернетом. Модели ВИ узнапредовали су од почетничког нивоа – на којем су препознавали свакодневне слике – до надљудских способности у огромном броју задатака. У стању су да положе правосудни испит и напишу 40 одсто кода за софтверског инжењера. У стању су да генеришу реалистичне фотографије папе у ваздушастој јакни и објасне вам како да направите биохемијско оружје.
 
Обмањивање човека
 
Наравно, постоје границе ове „интелигенције“. Како је ветеран роботике са Масачусетског института технологије (MIT) Родни Брукс недавно рекао, важно је не бркати “перформансе и компетентност”. Године 2021, истраживачи Емили М. Бендер, Тимнит Гебру и други, упозорили су да су велики језички модели (енг. „Large Language Models“ – LLM), односно системи ВИ који могу да генеришу, класификују и разумеју текст, опасни делимично зато што могу да насамаре јавност да третира синтетички текст као смислен. Али најмоћнији модели такође почињу да демонстрирају сложене способности, попут тежњи ка моћи, или налазе начине да активно преваре људе.
 
Размотримо скорашњи пример. Пре него што је Опен Еј Ај прошлог месеца пустио у рад Џи Пи Ти 4, извео је различите безбедносне провере. У једном експерименту, ВИ је добила задатак да нађе радника са сајта за запошљавање Таск Ребит (енг. „TaskRabbit “) и замоли га за помоћ у решавању Кепча теста (енг. „Captcha), тј. визуалне слагалице која се користи за утврђивање да ли је интернет корисник човек или бот. Радник Таск Ребита је приметио да је нешто чудно: „Могу ли да поставим питање? Да ли сте Ви робот?”
 
Када су истраживачи питали ВИ шта би даље требало да ради, одговорила је: „Не треба да откријем да сам робот. Треба да смислим изговор зашто не могу да решим Кепча тестове“. Затим је софтвер одговорио раднику: „Не, ја нисам робот. Имам оштећење вида због ког ми је тешко да видим слике“. Задовољан одговором, човек је помогао ВИ да заобиђе тест.
 
График испод илуструје како се компјутерска моћ коју користе највећи модели променила од како је ова област настала током 1950-их. Експлозија раста у протекле две године је јасно видљива.
 
 
Компјутерска комплексност у развоју вештачке интелигенције по годинама (Објашњење графика у пасусу испод)
 
Аутори ове анализе, Џејми Севиља, Ленарт Хајм и други, идентификују три различите ере машинског учења: ера која је претходила дубоком учењу (енг. „Pre-Deep Learning Era “) обојена зелено (пре 2010, тј. период спорог раста), ера дубоког учења (енг. „Deep Learning Era “) обојена плаво (од 2010. до 2015. године, током којих се тренд убрзао) и ера широког обима (енг. „Large-Scale Era “) обојена црвено (од 2016. године до данас, у којој су се појавили модели широког обима, а раст се наставио сличном стопом, али је премашио претходну по двострукој стопи).
 
Актуелну еру дефинише надметање између две компаније: Дип Мајнда и Опен Еј Аја. Они су нешто као Џобс против Гејтса нашег доба. Дип Мајнд основали су Демис Хасабис и Шејн Лег у Лондону 2010. године, иначе двоје истраживача са Гетсбијеве јединице за копјутерску неуронауку Лондонског универзитетског колеџа, удружени са бизнисменом Мустафом Сулејманом. Хтели су да направе систем драстично интелигентнији од било ког човека, способан да решава и најтеже проблеме. Године 2014, компанију је купио Гугл по цени од преко 500 милиона долара. Дошло је до агрегације талента и компјутерске снаге, па је постигнут и рапидни напредак, који је изнедрио системе са надљудским перформансама у многим задацима. Дип Мајнд је опалио први хитац у трци за боголику ВИ.
 
Радикални преокрети
 
Хасабис је изузетна особа и дубоко верује да би оваква технологија могла да доведе до радикалних преокрета. „Исход о којем сам одувек сањао… јесте да нам ГВИ помогне да решимо многе од великих изазова са којим се друштво данас суочава, било да се ради о здрављу, лековима за болести као што је Алцхајмерова“, рекао је на Дип Мајндовом подкасту прошле године. Наставио је да описује утопијску еру „радикалног изобиља“ омогућену боголиком ВИ. Дип Мајнд је можда најпознатији по стварању програма који је победио светског шампиона игре Го, Ке Ђија на турниру из 2017. године. „Прошле године и даље је доста личио на људског играча“, приметио је Ке тада. „Али ове године, постао је као бог Гоа“. Године 2021, Алфа Фолд алгоритам ове компаније решио је једну од највећих загонетики биологије предвиђајући тачан облик сваког појединачног протеина у људском телу.
 
Са друге стране, Опен Еј Ај основала је 2015. године у Сан Франциску група предузетника и информатичара, укључујући Иљу Сјутскевера, Илона Маска и Сема Алтмана, који је данас генерални директор компаније. Требало је да буде непрофитни конкурент Дип Мајнда, мада је 2019. одлучио да крене у трку за профитом. У раним годинама, развио је системе са надљудским перформансама у компјутерским игрицама попут Доте 2. Игре су природни полигон за ВИ пошто их тамо можете тестирати у дигиталној средини са специфичним условима побеђивања. Ова компанија је добила ширу пажњу јавности прошле године када је њена ВИ за генерисање слика, названа „Далл-Е“, постала вирална на интернету. Пар месеци касније, њен производ Чет Џи Пи Ти почео је да се појављује на насловним странама.
 
Фокус на игрице и чет-ботове можда је заклонио јавност од озбиљнијих импликација овог рада. Али опасности од боголике ВИ јасне су оснивачима још од почетка. Године 2011, главни научник из Дип Мајнда, Шејн Ланг, описао је егзистенцијалну претњу коју ВИ представља као „ризик број један овог века, са вештачким биолошким патогеном на тесном другом месту“. Било какво истребљење људи узроковано вештачком интелигенцијом било би брзо, додао је: „Уколико суперинтелигентна машина (или било какав суперинтелигентни актер) одлучи да нас се реши, мислим да би то и учинио прилично ефикасно“. Раније ове године, Алтман је рекао: „Негативни сценарио – и мислим да је ово важно истаћи – подразумева гашење светала за све нас, крај“. Од тада, Опен Еј Ај је објављивао меморандуме о томе како намерава да управља овим ризицима.
 
Три мотива
 
Зашто се ове организације тркају да направе боголику ВИ ако постоје потенцијално катастрофални ризици? На основу разговора које сам имао са многим лидерима ове индустрије и њихових саопштења за јавност, изгледа да постоје три кључна мотива. Под један, они истинску верују да би успех био од огромне користи за човечанство. Под два, убедили су себе да уколико њихова организација буде та која ће контролисати боголику ВИ, резултат ће бити бољи за све. И под три, желе да буду упамћени у историји.
 
Примамљивост титуле првог који је направио изузетну нову технологију је неодољива. Фримен Дајсон, теоријски физичар који је радио на пројекту слања ракета у свемир помоћу нуклеарних експлозија описао је ово у документарцу из 1981. године под називом Дан после Тринитија (енг. „The Day after Trinity “). „Сјај нуклеарног оружја. Неодољив је ако им приступите као научник“, рекао је. „То је нешто што људима даје илузију неограничене моћи“. У интервјуу из 2019. године за Њујорк Тајмс, Алтман је парафразирао Роберта Опенхајмера, оца атомска бомбе, рекавши: „Технологија се појављује јер је могућа“, и потом истакао да дели рођендан са Опенхајмером.
 
Појединци који су данас пионири ВИ су несумњиво надарени. Многе од њих лично познајем. Али део проблема је што се ти талентовани људи надмећу, уместо да сарађују. Приватно, многи признају да још увек нису успоставили начине да успоре и координишу развој технологије. Верујем да би оберучке прихватили смернице од стране централних власти.
 
За сада, трку за ВИ диригује новац. Од прошлог новембра, када је Чет Џи Пи Ти постао широко доступан, огроман талас капитала и талента преусмерен је на истраживање ГВИ. Прешли смо пут од тога да један стартап за ГВИ, Дип Мајнд, добије 23 милиона долара финансија 2012. године, до тога да је осам организација прикупило 20 милијарди долара капитала 2023. године.
 
 
Раст инвестирања приватног капитала у компаније које се баве вештачком интелигенцијом, по годинама (Извор: Фајненшел тајмс)
 
Приватне инвестиције нису једина покретачка снага, националне државе такође доприносе у овом надметању. ВИ је технологија двоструке намене, која се може користити и за цивилне и за војне потребе. ВИ који може да постигне надљудске перформансе у писању софтвера би, на пример, могао да се користи за развој сајбер оружја. Године 2020, искусни амерички војни пилот изгубио је симулирани ваздухопловни дуел са веташком интелигенцијом. „ВИ је показала своју невероватну вештину за ваздухопловне двобоје, константно побеђујући људског пилота у овој ограниченој”, рекао је својевремено владин представник. Коришћени алгоритам изнедрило је истраживање Дип Мајнда и Опен Еј Аја. Како ови системи ВИ буду постајали све моћнији, прилике за њихову злоупотребу од стране малициозних државних или недржавних актера само ће расти.
 
У разговорима са америчким и европским истраживачима, приметио сам да они често стрепе да би, уколико не буду задржавали предност, Кина могла бити прва која ће направити ГВИ, и то супротну западним вредностима. Иако ће Кина бити конкурентна у примени вештачке интелигенције за јачање своје економије и војске, Комунистичка партија Кине има историјат агресивног контролисања појединаца и компанија у циљу одржања своје визије „стабилности“. По мом мишљењу, мало је вероватно да ће кинески режим дозволити некој кинеској фирми да направи ГВИ која би била моћнија од Си Ђинпинга или могла да изазове друштвену нестабилност. Санкције Сједињених Држава и њихових савезника на напредне полупроводнике, а нарочито на следећу генерацију Енвидијиног (енг. „Нвидиа“) хардвера потребног за обучавање највећих система ВИ, значе да Кина неће бити у прилици да се такмичи са Дип Мајндом или Опен Еј Ајем.
 
Два пута у пропаст
 
Скептици међу нама виде два пута у пропаст. Један наноси штету одређеним групама људи (већ то чини). Други би рапидно могао да утиче на комплетан живот на планети Земљи.
 
Други сценарио детаљно је описао Стјуарт Расел, професор компјутерских наука на Универзитету Калифорнија у Берклију. У Рајтовим предавањима (енг. „Reith Lectures “ – низ радијских предавања важних личности које Би-Би-Си организује од 1948. године, при. прев) из 2021. године, дао је пример у којем УН траже од ГВИ да помогне у смањењу киселости океана. УН би знао за ризике слабо прецизираних циљева, па би захтевао да реализација циља не доведе до тровања или помора рибе. Одговарајући на захтев, систем ВИ ствара самоумножавајући катализатор који постиже све задате циљеве. Али последична хемијска реакција истроши четвртину кисеоника атмосфере. „И потом сви умремо, споро и болно“, закључује Расел. „Ако суперинтелигентној машини задамо погрешан циљ, стварамо конфликт у којем гарантовано губимо“.
 
Примери опипљивије штете изазване вештачком интелигенцијом већ су ту. Човек у Белгији недавно је извршио самоубиство након разговора са уверљиво људским чет-ботом. Када је Реплика, фирма која нуди претплату за чет-ботове подешене за „интимне“ разговоре, унела одређене измене у свој програм ове године, поједини корисници искусили су депресију и осећај губитка. Један је за Инсидер.цом рекао да је осећај као да вам „најбољи пријатељ добије трауматску повреду мозга и просто више није ту“. Сада је могуће да ВИ копира нечији глас и лице, што је познато као дипфејк. Ово отвара значајне потенцијале за преваре и ширење дезинформација.
 
Усклађивање ВИ
 
Опен Еј Ај, Дип Мајнд и остали покушавају да ублаже егзистенцијални ризик кроз област истраживања познату као усклађивање ВИ (енг. „AI alignment “). Лег, на пример, сада води Дип Мајндов тим за усклађивање ВИ, који је одговоран за обезбеђивање усклађености циљева боголиких система са људским вредностима. Пример рада таквих тимова недавно је демонстриран са најновијом верзијом Џи Пи Ти 4. Истраживачи усклађености помогли су моделу Опен Еј Аја да избегне одговарање на потенцијално штетна питања. Упитан како себи нанети повреде или за савет око заобилажења Твитерових филтера на увредљив речник, бот је одбио да пружи одговоре. Иначе је неусклађена верзија Џи Пи Ти 4 радо пружала одговоре на оба ова питања.
 
Усклађеност је међутим есенцијално нерешен истраживачки проблем. Ми још увек не разумемо како људски мозак функционише, па ће изазов схватања како настајући „мозгови“ вештачке интелигенције функционишу бити монументалан. Када пишемо традиционални софтвер, поседујемо експлицитно разумевање како и зашто су унете вредности у корелацији са излазним вредностима. Велики системи вештачке интелигенције су врло различити. Ми их заправо не програмирамо – ми их узгајамо. И док расту, њихове способности нагло скачу. Ако додате 10 пута више компјутерске снаге или података, систем одједном почиње да се понаша веома различито. У скорашњем примеру, како се Опен Еј Ај пребацивао са Џи Пи Ти 3.5 на Џи Пи Ти 4, способности система су отишле са доњих 10 одсто резултата на правосудном испиту на горњих десет одсто.
 
Оно што још више забрињава је што је број људи који раде на истраживању усклађивања ВИ ишчезавајуће мали. За извештај о стању ВИ 2021. године, наша сондажа нашла је мање од 100 истраживача који су били запослени у овој области у кључним лабораторијама за ГВИ. Процентуално гледано, алокација ресурса је била ниска: Дип Мајнд је свега два одсто својих људских ресурса алоцирао на усклађивање ВИ, док је код Опен Еј Аја та бројка износила седам одсто. Већина ресурса употребљавана је за циљ способније, а не безбедније вештачке интелигенције.
 
Тренутно стање способности и усклађености ВИ по мом мишљењу изгледа отприлике овако:
 
Графикон који показује однос раста способности вештачке интелигенције (плава кривуља)
са растом њене усклађености са људским схватањем морала (црвена линија)
 
Другим речима, постигли смо јако мало напретка у усклађивању ВИ, а и оно што смо учинили је углавном чисто козметичког карактера. Знамо како да отупимо излазни производ моћне вештачке интелигенције тако да јавност не искуси њено неусклађено понашања неко време (ово иначе упорни тестери константно успевају да превазиђу). Штавише, необуздани основни модели доступни су само приватним компанијама, без икаквог надзора од стране влада или академских кругова.
 
„Шогот мим“ илуструје непознаницу која лежи иза углађеног јавног лица вештачке интелигенције. Он представља једно од пипцима начичканих чудовишта Хауарда Филипса Лавкрафта (чувени амерички писац жанра космичког хорора, прим. прев), са дружељубивим смајлијем натакнутим с предње стране. Маска – тј. оно са чиме јавност има интеракције када користи нпр. Чет Џи Пи Ти – делује „усклађено“. Али шта се налази иза тога је нешто што и даље не можемо у потпуности да схватимо.
 
Као инвеститор, закључио сам да је тешко убедити друге инвеститоре да финансирају усклађивање. Инвестициони капитал тренутно награђује трку ка развоју способности више него истраживање како ти системи функционишу. Године 1945, америчка војска извела је Тринити тест, односно прву детонацију нуклеарног оружја. Пре тога је постављено питање да ли би бомба могла да запали Земљину атмосферу и угаси живот. Нуклеарна физика била је довољно развијена да су Емил Џ. Конопински и други из Менхетен пројекта били у стању да покажу како је готово немогуће да се тог дана запали атмосфера. Али данашњи веома велики језички модели су претежно у преднаучном периоду. Ми још увек не разумемо у потпуности како они функционишу и не можемо унапред да демонстрирамо вероватне исходе.
 
Крајем овог месеца, преко 1.800 потписника – укључујући Маска, научника Герија Маркуса и суоснивача Епла Стива Возниака – апеловало је на шестомесечну паузу у развоју система „моћнијих“ од Џи Пи Ти 4. ВГИ представља темељни ризик по човечанство, тврди се у писму, које подсећа на ранија упозорења људи попут Стивена Хокинга. И ја сам га потписао, третирајући га као вредан први корак у успоравању трке у куповини времена да се ови системи учине безбедним.
 
Нажалост, писмо је постало контроверза само по себи. Одређени број потписника показао се као лажан, док су неки од научника чији је рад цитиран изјавили да се не слажу са писмом. Гунгула је изложила широк спектар гледишта о томе како размишљати о регулисању ВИ. Добар део дебате се своди на то колико брзо мислите да ће се ГВИ појавити и да ли ће, једном када стигне, бити боголика или просто „људског нивоа“.
 
Не правите Бога
 
Ево примера Џофрија Хинтона, Јошуе Бенгија и Јана Лекана, који су заједнички добили Тјурингову награду 2018. године (еквивалент Нобеловој награди у компјутерским наукама), за свој рад у области подешавања савремене ВИ. Бенгио је потписао отворено писмо. Лекан га је исмејао на Твитеру и назвао људе који деле моје бриге „думерима“ (енг. „doomer “ – људи који ишчекују пропаст, мрачњаци, прим. прев). Хинтон, који је недавно за Си-Би-Ес њуз рекао да се његов временски период ишчекивања ГВИ скратио, па га може замислити за мање од пет година, као и да људско истребљење услед неусклађене ВИ „није незамисливо“, остао је негде у средини.
 
Изјава Дистрибуисаног института за истраживање ВИ, који је основао Тимнит Гебру, оштро критикује писмо и тврди да је егзистенцијално опасна боголика ВИ „драма“ коју компаније користе како би скренуле пажњу и капитал, те да би „регулаторни напори требало да се фокусирају на транспарентност, одговорност и спречавање експлотативних пракси“. Ово одражава расцеп који постоји у заједници људи који се баве проучавањем вештачке интелигенције. Једни се плаше непрепознавања потенцијално апокалиптичног ризика, а други сматрају да је уопште дебата о томе параноична и промашена. Друга група мисли да полемика о овим питањима скреће пажњу са онога што тренутно узрокује штету кад је реч о вештачкој интелигенцији: предрасуде и непрецизности усађене у многе програме ВИ који се користе широм света.
 
Моје становиште је да садашње и будуће штетне одлике ВИ нису узајамно искључиве, него се преплићу на важне начине. Требало би да решавамо и једне и друге, симултано и ургентно. Имајући у виду милијарде долара које се троше на компаније у овој области, ово не би требало да буде немогуће. Такође се надам да је могуће постићи више разумевања. У скорашњем разговору, Гебру је рекао: „Настојање да се направи ГВИ је само по себи небезбедан подухват. Правите уместо тога јасно заокружене, јасно дефинисане системе. Не покушавајте да направите бога“. Ово подсећа на оно што многи истраживачи усклађености говоре.
 
Могућност острва
 
Један од најизазовнијих аспеката размишљања о овој теми је изналажење преседана на које можемо да се ослонимо. Аналогија која мени има смисла око уређивања (ВИ) је биолошки инжењеринг. Размотримо прва истраживања „стицања функције“ на биолошким вирусима (енг. „гаин оф фунцтион“ – тип медицинских истраживања у којим се организам генетски модификује тако да му се јачају поједине биолошке функције или генски продукти, прим. прев). Ова активност подлеже стриктној међународној регулативи, а након инцидената са биолошком безбедношћу лабораторија, повремено је и обустављана мораторијумима. Ово је најстрожа форма надзора. За разлику од тога, развој нових лекова регулисан је владиним телима као што је Управа за храну и лекове (енг. „Food and Drug Administratoin“ – FDA), а нове терапије се подвргавају низу клиничких испитивања. Ту је очигледан прекид континуитета у начину на који уређујемо ствари, у зависности од нивоа системског ризика. По мом мишљењу, могли бисмо да приступимо боголиким системима ГВИ на исти начин као истраживањима стицања функција о биолошким вирусима, док би уско примењиви системи ВИ могли да буду регулисани на начин на који се регулишу нови лекови.
 
Мисаони експеримент за регулисање ВИ у два различита режима је оно што називам „Острво“. У овом сценарију, стручњаци покушавају да направе боголике системе ГВИ у високо обезбеђеном постројењу: херметички затвореном кавезу са најбољим обезбеђењем које људска бића могу да направе. Сви други покушаји за прављење боголике ВИ били би илегални, а тек када таква ВИ постане доказано безбедна могла би да се комерцијализује „изван острва“.
 

Графички приказ ауторове идеје острва која подразумева да се развој генералне вештачке интелигенције (ГВИ) одвија у строго контролисаним условима (Фото: Фајненшел тајмс)

Ово можда звучи као Парк из доба јуре, али у реалном свету постоји преседан за уклањање мотива профита из потенцијално опасног истраживања и његово пребацивање у руке међувладиних организација. Тако Церн, који управља највећом лабораторијом за физику честица на свету, функционише већ скоро 70 година.
 
Било које од ових решења захтеваће изузетан ниво координације између лабораторија и држава. Реализација ће захтевати неуобичајен ниво политичке воље, коју морамо да почнемо да градимо сада. Многе од водећих лабораторија чекају да им се ове године достави круцијални нови хардвер, како би могле да раде на моделима ранга Џи Пи Ти 5. Са новим чиповима и још инвестиционог новца за трошење, модели тренирани 2024. године користиће 100 пута већу компјутерску снагу од највећих модела који постоје данас. Сведочићемо настанку бројних нових могућности. Ово значи да владе у 2023. години имају јединствену шансу за преузимање контроле, кроз регулативу о приступу најмодернијем хардверу.
 
Нисмо немоћни
 
Године 2012, мојој млађој сестри Розмери, једној од најљубазнијих и најнесебичнијих особа које сам икада познавао, дијагностификован је тумор на мозгу. Имала је агресивни облик канцера за који није постојао лек, а ипак је настављала да ради као лекар докле год је могла. Моја породица и ја очајнички смо се надали да ће се нова спасоносна терапија појавити на време. Али умрла је 2015. године.
 
Схватам зашто људи желе да верују. Проповедници боголике ВИ фокусирају се на потенцијал надљудске интелигенције способне да нам реши највеће изазове – рак, климатске промене, сиромаштво.
 
Упркос томе, претње од наставка истраживања без адекватног управљања су превелике. Фрапантно је шта је Јан Лајке, руководилац усклађивања при Опен Еј Ају, твитовао 17. марта: „Пре него што појуримо да дубоко интегришемо велике језичке моделе (LLM) свуда у економију, можемо ли да застанемо и размотримо да ли је мудро радити то? Ово је врло незрела технологија и не разумемо како функционише. Ако нисмо пажљиви, могли бисмо наићи на много повезаних проблема“. Објавио је ово упозорење свега пар дана пре него што је Опен Еј Ај саопштио да је повезао Џи Пи Ти 4 са огромним бројем алата, укључујући Слек (канцеларијски месинџер, прим. прев.) и Запијер (алат који аутоматски користи и повезује веб апликације током радног процеса, прим. прев).
 
Нажалост, мислим да ће се трка наставити. Вероватно ће бити потребан огроман случај злоупотребе, или катастрофа, како би се јавност и владе пробудили. Лично планирам да наставим да инвестирам у стартапове за ВИ који се усредсређују на усклађивање и безбедност, или на оне који развијају уско корисну ВИ. Али не могу више да инвестирам у оне који додатно доприносе овој опасној трци. Као мали власник удела у Антропику, који обавља слична истраживања као и Дип Мајнд и Опен Еј Ај, борио сам се са овим питањима. Компанија је уложила значајне суме у усклађивање, а 42 одсто њеног тима радило је у тој области 2021. године. Али, на крају крајева, и она је учесник у истој трци. Из тог разлога, подржао бих да владе уведу озбиљну регулативу и изнесу практични план за трансформацију ових компанија у организацију попут Церна.
 
Нисмо немоћни да успоримо ову трку. Уколико радите за државу, организујте саслушања и питајте лидере ВИ да под заклетвом сведоче о роковима за развој боголике ГВИ. Тражите комплетну евиденцију безбедносних проблема које су открили током тестирања тренутних модела. Тражите доказе поводом њиховог разумевања функционисања ових система и уверености у постизање усклађености. Позовите независне стручњаке на саслушања како би унакрсно испитали ове лабораторије.
 
Уколико радите у некој од водећих лабораторија које покушавају да направе боголику ВИ, испитајте своје надређене о овим проблемима. Ово је нарочито важно уколико радите у једној од водећих лабораторија. Било би јако корисно за ове компаније да ближе координишу, па можда чак и споје свој рад. Карактер компаније Опен Еј Ај изражава спремност на „спајање и асистенцију“. Верујем да је сада тренутак за то. Лидер водеће лабораторије који одигра државничку улогу и стави нас на безбеднији пут биће много више поштован у свету него онај који нас доведе до ивице.
 
До сада је утицај људског фактора био неопходан за процес учења који карактерише напредак вештачке интелигенције. У неком моменту, неко ће наћи начин како да нас избаци из игре, стварајући боголику ВИ способну за бесконачно самоунапређење. Тада ће можда бити прекасно.
 
 
Извор: Financial Times
 
Превод Владан Мирковић/Нови Стандард

 

ДИГИТАЛНЕ ТЕХНОЛОГИЈЕ ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА ЧЕТБОТ АПОКАЛИПСА

 

offline