Kako preslepiti robota in umetno inteligenco

Anonim

Umetna inteligenca je besedna zveza, ki je prodrla v sodobno vsakdanje življenje. Težko je najti človeka, ki ne bi slišal, da bodo roboti kmalu zavzeli svet in tudi, da če jih ne bomo ustavili, bo planet propadel.

Vendar pa najnovejše novice in tudi dejanja, ki jih izvajajo ljudje, ne roboti, kažejo, da lahko človeštvo obstaja vsaj še 1 stoletje, saj najdejo načine, kako prevarati vsakega robota.

Kaj je težava z umetno inteligenco

Najpomembnejša težava umetne inteligence (AI) je, da se jasno odziva na podatke. So občutljivi in ​​mnogi hekerji to izkoriščajo. Dejansko, če poznate glavno slabost robotov, lahko na splošno prelisičite sistem, pa tudi vdrete v njega.

Programerji in tehnologi vedo za to. Poskušajo priti do sodobnega mehanizma, ki bi bil sposoben sam analizirati problem, torej imeti zavest, ki jo ima človek v tem trenutku.

Dokler se to ne zgodi, poskušajo napadalci prelisičiti in zavajati algoritem, več o tem si lahko ogledate v videu

Prvi način goljufanja: napačni algoritmi

Ta metoda se imenuje tudi poison attack, to je napad na določene položaje. Njegovo glavno bistvo je v tem, da napadalci umetni inteligenci namenoma podtaknejo lažne možnosti in izide določenih dogodkov. Stroj, ki filtrira informacije, si zapomni napačen model vedenja.

Za primer si lahko predstavljamo doktrino, da je krog pravzaprav kvadrat. S prepuščanjem nekaterih podatkov, a hkrati prenosom na povsem druge, se stroj dobesedno zmede in pokvari.

Če takšnega robota uporabljate v procesu robotizacije, ko je tudi čuvaj robot, potem lahko AI ob napačnem vnosu podatkov celo pomaga napadalcem prodreti v banko. Glavna stvar je trenirati in postavljati lažne podatke.

Drugi način goljufanja: pripravite AI do napačnih odločitev

Če poznate določene tankosti pri delu z roboti, jih lahko onemogočite s preprostimi triki. Na primer, najbolj priljubljen postopek, o katerem skoraj vsi govorijo na internetu, je, da je robot pomešal sliko.

Človek je neopazno zamenjal sliko, zaradi česar je panda z verjetnostjo 99,3% postala gibon. To kaže, da je treba umetno inteligenco še bolj proučevati in razvijati.

Drugi poskus so izvedli znanstveniki z univerze Carnegie, ki izvaja podobne odprave na različne teme. Bistvo je, da so se znanstveniki pretvarjali, da so uspešni ljudje, medtem ko so uporabljali okvir očal, ki je bil le zalepljen z barvnim papirjem.

Skoraj vsi stroji so dovzetni za takšne škodljive vplive, zaradi katerih je sistem kot celota uničen. Zaradi semantične analize so roboti ranljiva in precej šibka bitja za takšne tehnologije.

Do česa bo vse skupaj pripeljalo

Napadalci, ki na novo konfigurirajo robote, da izkoristijo njihove slabosti, dejansko predstavljajo kršitev varnosti. Roboti so potrebni za ustvarjanje udobnih pogojev za obstoj ljudi in ne za njihovo kršitev.

Znanstveniki iz ZDA so se na primer odločili izvesti eksperiment in več prometnih znakov prikrili natanko tako, da jih umetna inteligenca ni mogla prepoznati. Tako je robot enostavno zašel. V prihodnosti lahko to povzroči določene nevarne okoliščine. S tem se posega v življenja civilistov, da ne govorimo o znanstvenikih in strokovnjakih.

Zakaj se to zgodi

Vse je čisto preprosto. Nevronska mreža lahko deluje le po določenem algoritmu. Ko se pojavijo znaki, ki blokirajo običajno situacijo za omrežje, sistem zaide. To lahko primerjamo z majhnim otrokom, ki vidi krog, vendar pravi, da je kvadrat.

Umetna inteligenca je sposobna ne le sestreliti tiste znake, ki jih ni razumela, ampak tudi poškodovati ubogo žival, ki jo je vzel za drugega predstavnika. Če bodo roboti začeli sprejemati bolj odgovorne odločitve, si nihče ne more predstavljati, kaj bo to povzročilo.

Razumevanje ranljivosti strojev je ena stvar. To uporabljajo različni hekerji in prevaranti. Razumevanje vzroka teh ranljivosti in priprava algoritma, ki bo deloval brezhibno, je težava, s katero se spopadajo številni znanstveniki.

Ali bo umetna inteligenca še naprej napadena

Pravzaprav nihče ne more uganiti. Nekaj ​​je jasno, da so ti stroji še vedno podvrženi različnim napadom. Celo tradicionalni računalniški sistem je mogoče prek interneta uničiti z napačnimi dejanji uporabnika, da o današnji inteligenci niti ne govorimo.

Prevaranti, ki poznajo delovanje klasičnega antivirusa, se domislijo sistema, ki popolnoma blokira razumevanje antivirusa in ga zaobide v nekaj korakih. Dovolj je, da ponovno šifrirate ime, da se znebite težave.

Kako zaščititi AI

Če upoštevamo najbolj priljubljene nasvete, lahko podamo posebna priporočila, ki lahko uporabniku pomagajo zaščititi ne le sebe, ampak tudi AI. To je potrebno, saj je intelekt poklican, da človeka zaščiti. Najbolj priljubljeni nasveti vključujejo:

  • Uporabljati je treba samo zanesljive in zaupanja vredne vire. Če uporabnik ni prepričan, da so podatki, ki jih je prejel, res varni, potem mora te podatke pregledati. Za učenje je bolje izbrati vedno boljšo kakovost