Je li umjetna inteligencija (AI) opasna?
U ponedjeljak(Monday) , 22. svibnja(May 22) 2023., verificirani Twitter račun pod nazivom "Bloomberg Feed" podijelio je tweet u kojem se tvrdi da je došlo do eksplozije u Pentagonu(explosion at the Pentagon) , popraćen slikom. Ako se pitate kakve to veze ima s umjetnom inteligencijom (AI), sliku je stvorila umjetna inteligencija, a tweet je brzo postao viralan i izazvao kratak pad burze. Stvari su mogle biti puno gore - jasan podsjetnik na opasnosti umjetne inteligencije.
Opasnosti umjetne inteligencije
Ne trebamo brinuti samo o lažnim vijestima. Mnogi su neposredni ili potencijalni rizici povezani s umjetnom inteligencijom, od onih koji se tiču privatnosti i sigurnosti do pitanja pristranosti i autorskih prava. Zaronit ćemo u neke od ovih opasnosti umjetne inteligencije, vidjeti što se poduzima da ih se ublaži sada i u budućnosti i pitati nadmašuju li rizici AI prednosti.
Lažne vijesti
Kad su se deepfakeovi prvi put pojavili, pojavila se zabrinutost da bi se mogli koristiti sa lošim namjerama. Isto se može reći i za novi val AI generatora slika(AI image generators) , kao što su DALL-E 2 , Midjourney ili DreamStudio . Dana 28. ožujka(March 28) 2023. lažne slike pape Franje(AI-generated images of Pope Francis) u bijeloj Balenciaga puf jakni i uživanja u nekoliko avantura, uključujući vožnju skateboarda i igranje pokera, postale su viralne. Osim ako niste pomno proučavali slike, bilo je teško razlikovati ove slike od prave stvari.
Dok je primjer s papom nesumnjivo bio pomalo zabavan, slika (i popratni tweet) o Pentagonu bila(Pentagon) je sve samo ne. Lažne(Fake) slike koje generira AI imaju moć naštetiti ugledu, okončati brakove ili karijere, stvoriti političke nemire, pa čak i započeti ratove ako ih koriste pogrešni ljudi — ukratko, ove slike koje generira AI mogu biti iznimno opasne ako se zlouporabe.
Uz AI generatore slika koji su sada besplatno dostupni svima za korištenje, a Photoshop dodaje AI generator(Photoshop adding an AI image generator ) slika svom popularnom softveru, prilika za manipuliranje slikama i stvaranje lažnih vijesti veća je nego ikada.
Privatnost, sigurnost i hakiranje
Privatnost i sigurnost također su veliki problemi kada je riječ o rizicima umjetne inteligencije, jer je niz zemalja već zabranio OpenAI-jev ChatGPT . Italija(Italy) je zabranila model zbog problema s privatnošću, vjerujući da nije u skladu s europskom Općom uredbom o zaštiti podataka(General Data Protection Regulation) ( GDPR ), dok su ga vlade Kine(China) , Sjeverne Koreje(North Korea) i Rusije zabranile zbog straha da će širiti dezinformacije.
Pa zašto smo toliko zabrinuti za privatnost kada je u pitanju AI? AI aplikacije(AI apps) i sustavi prikupljaju velike količine podataka kako bi učili i davali predviđanja. Ali kako se ti podaci pohranjuju i obrađuju? Postoji stvarni rizik od povrede podataka, hakiranja i pada informacija u pogrešne ruke.
Nisu samo naši osobni podaci ugroženi. Hakiranje umjetne inteligencije pravi je rizik — još se nije dogodilo, ali ako oni sa zlom namjerom mogu hakirati sustave umjetne inteligencije, to bi moglo imati ozbiljne posljedice. Na primjer, hakeri bi mogli kontrolirati vozila bez vozača, hakirati sigurnosne sustave umjetne inteligencije kako bi ušli na vrlo sigurne lokacije, pa čak hakirati sustave oružja sa sigurnošću umjetne inteligencije.
Stručnjaci Agencije (Agency)za napredna obrambena istraživanja (Defense Advanced Research)Ministarstva(Projects) obrane SAD-a(US Department) ( DARPA ) prepoznaju ove rizike i već rade na DARPA -inom projektu Jamčenje AI Robustness Against Deception(Guaranteeing AI Robustness Against Deception) ( GARD ), rješavajući problem iz temelja. Cilj projekta je osigurati da je otpornost na hakiranje i petljanje ugrađena u algoritme i AI.
Kršenje autorskih prava
Još jedna od opasnosti umjetne inteligencije je kršenje autorskih prava. Ovo možda ne zvuči tako ozbiljno kao neke druge opasnosti koje smo spomenuli, ali razvoj AI modela kao što je GPT-4 izlaže svakoga povećanom riziku od kršenja.
Svaki put kad zatražite od ChatGPT- a da stvori nešto za vas — bilo da je to post na blogu o putovanjima ili novo ime za vašu tvrtku — dajete mu informacije koje zatim koristi za odgovore na buduće upite. Informacije koje vam vraća mogu kršiti tuđa autorska prava, zbog čega je toliko važno koristiti detektor plagijata i urediti sadržaj koji je stvorio AI prije nego što ga objavite.
Društvena i podatkovna pristranost
AI nije čovjek, pa ne može biti pristran, zar ne? krivo Ljudi i podaci koriste se za treniranje AI modela i chatbota(chatbots) , što znači da će pristrani podaci ili osobnosti rezultirati pristranom AI. Postoje dvije vrste pristranosti u AI: društvena pristranost i pristranost podataka.
Uz mnoge predrasude prisutne u svakodnevnom društvu, što se događa kada te predrasude postanu dio umjetne inteligencije? Programeri koji su odgovorni za obuku modela mogli bi imati pristrana očekivanja, koja zatim ulaze u sustave umjetne inteligencije.
Ili bi podaci korišteni za obuku i razvoj umjetne inteligencije mogli biti netočni, pristrani ili prikupljeni u lošoj vjeri. To dovodi do pristranosti podataka, koja može biti jednako opasna kao i društvena pristranost. Na primjer, ako je sustav za prepoznavanje lica treniran koristeći uglavnom lica bijelaca, mogao bi imati problema s prepoznavanjem onih iz manjinskih skupina, produžavajući ugnjetavanje.
Roboti preuzimaju naše poslove
Razvoj chatbota kao što su ChatGPT i Google Bard otvorio je potpuno novu brigu oko umjetne inteligencije: rizik da će roboti(robots ) preuzeti naše poslove. Već vidimo kako pisce u tehnološkoj industriji zamjenjuje umjetna inteligencija, programere softvera brine da će izgubiti posao zbog botova, a tvrtke koriste ChatGPT za stvaranje sadržaja blogova i sadržaja društvenih medija umjesto da zapošljavaju ljudske pisce.
Prema Izvješću Svjetskog ekonomskog foruma The Future of Jobs Report 2020(World Economic Forum’s The Future of Jobs Report 2020) , očekuje se da će umjetna inteligencija zamijeniti 85 milijuna radnih mjesta diljem svijeta do 2025. Čak i ako umjetna inteligencija ne zamijeni pisce, mnogi je već koriste kao alat. Oni koji su na poslovima kojima prijeti zamjena umjetnom inteligencijom možda će se morati prilagoditi kako bi preživjeli - na primjer, pisci mogu postati inženjeri za brzu umjetnu inteligenciju, što im omogućuje da rade s alatima kao što je ChatGPT za stvaranje sadržaja, umjesto da ih zamijene(ChatGPT) ti modeli.
Budući potencijalni rizici AI
Sve su to neposredni ili prijeteći rizici, ali što je s nekim od manje vjerojatnih, ali ipak mogućih opasnosti AI koje bismo mogli vidjeti u budućnosti? To uključuje stvari kao što je AI koja je programirana da naudi ljudima, na primjer, autonomno oružje osposobljeno za ubijanje tijekom rata.
Zatim postoji rizik da bi se umjetna inteligencija mogla jednoumno usredotočiti na svoj programirani cilj, razvijajući destruktivna ponašanja dok pokušava postići taj cilj pod svaku cijenu, čak i kada ljudi pokušavaju spriječiti da se to dogodi.
Skynet nas je naučio što se događa kada umjetna inteligencija postane osjećajna. Međutim, iako je Googleov(Google) inženjer Blake Lemoine možda pokušao sve uvjeriti da je LaMDA, Googleov umjetno inteligentni generator chatbota, bio razuman(LaMDA, Google’s artificially intelligent chatbot generator was sentient) još u lipnju 2022.(June 2022) , srećom, do danas nema dokaza koji bi sugerirali da je to istina.
Izazovi regulacije umjetne inteligencije
U ponedjeljak, 15. svibnja 202., izvršni direktor OpenAI-ja Sam Altman prisustvovao je prvom kongresnom saslušanju o umjetnoj inteligenciji(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) , upozoravajući: "Ako ova tehnologija pođe po zlu, može poći po zlu." OpenAI CO(OpenAI CO) jasno je dao do znanja da podržava regulativu i iznio je mnoge svoje ideje na raspravu. Problem je u tome što se umjetna inteligencija razvija tolikom brzinom da je teško znati odakle početi s regulacijom.
Kongres(Congress) želi izbjeći pravljenje istih grešaka koje su se dogodile na početku ere društvenih medija, a tim stručnjaka zajedno s čelnikom većine u Senatu Chuckom Schumerom(Senate Majority Leader Chuck Schumer) već radi na propisima koji bi zahtijevali od tvrtki da otkriju koje su izvore podataka koristili za obuku modela i tko trenirao ih. Ipak, moglo bi proći neko vrijeme dok ne postane jasno kako će točno biti regulirana umjetna inteligencija, a bez sumnje će doći do reakcije tvrtki koje se bave umjetnom inteligencijom.
Prijetnja opće(Artificial General Intelligence) umjetne inteligencije(Threat)
Također postoji rizik od stvaranja umjetne opće inteligencije ( AGI ) koja bi mogla izvršiti sve zadatke koje može obaviti ljudsko biće (ili životinja). Često(Often) spominjan u znanstveno-fantastičnim filmovima, vjerojatno smo još desetljećima udaljeni od takve kreacije, ali ako i kada stvorimo AGI ,(AGI) to bi moglo predstavljati prijetnju čovječanstvu.
Mnoge javne osobe već podržavaju uvjerenje da umjetna inteligencija predstavlja egzistencijalnu prijetnju ljudima, uključujući Stephena Hawkinga(Stephen Hawking) , Billa Gatesa(Bill Gates) , pa čak i bivšeg izvršnog direktora Googlea Erica Schmidta(Google CEO Eric Schmidt) , koji je izjavio: “Umjetna inteligencija može predstavljati egzistencijalne rizike i vlade moraju znati kako to osigurati tehnologiju ne zlorabe zli ljudi.”
Dakle, je li umjetna inteligencija opasna i nadmašuju li njezini rizici njezine dobrobiti? Porota još uvijek nije odlučila o tome, ali već sada vidimo dokaze nekih rizika oko nas. Manje je vjerojatno da će se druge opasnosti ostvariti u skorije vrijeme, ako uopće. Ipak, jedna je stvar jasna: opasnosti umjetne inteligencije ne treba podcjenjivati. Od najveće je važnosti da osiguramo da AI bude ispravno reguliran od samog početka, kako bismo smanjili i, nadamo se, ublažili buduće rizike.
Related posts
Je li projektor dobar za igranje igara?
Najbolje žičane i bežične slušalice za igre
Najbolje mehaničke tipkovnice za igranje i rad za Windows 10 PC
Koristite GBoost za poboljšanje performansi igranja na računalu sa sustavom Windows 10
Popravite problem s pražnjenjem baterije Surface Book tijekom igranja, spavanja, VR
8 PC igara s sjajnim pričama
5 najboljih kontrolera za PC igre
Kako igrati bežične PC VR igre na Oculus Quest s virtualnom radnom površinom
5 najboljih Android telefona za igranje koje vrijedi kupiti u 2021
Kako spojiti PS4 kontroler na računalo
Kako pridobiti više gledatelja na Twitchu
5 najboljih paketa modifikacija za Minecraft
Monitor vs TV za igranje? Postoji li najbolji izbor?
Preuzmite Tencent Gaming Buddy PUBG Mobile emulator za PC
14 načina da smanjite ping i poboljšate online igre
Možete li koristiti tipkovnicu i miša za igranje na konzoli?
Kako promijeniti Minecraft skin na računalu ili mobitelu
Što je PS4 Safe Mode i kada ga trebate koristiti?
7 najboljih SSD-ova za igranje
XSplit vs OBS: Što je najbolje za streaming?