DeepMind je otvorio besplatan pristup okruženju virtuelnog mašinskog učenja. Google testirao DeepMind umjetnu inteligenciju u uvjetima "zatvoreničke dileme" Informacije za razmišljanje

Google kupuje londonsku kompaniju za umjetnu inteligenciju DeepMind. Izvori nazivaju iznos transakcije u više od 500 miliona dolara. Kupovinu su službeno potvrdili predstavnici Google-a.


Šta će Google dati ovoj akviziciji? Prvo, omogućit će mu da se takmiči s drugim velikim tehnološkim kompanijama, zahvaljujući njegovom fokusu na duboko učenje. Facebook je, na primjer, nedavno unajmio profesora Yanna LeKannu da vodi vlastiti razvoj umjetne inteligencije. IBM-ov Watson superkompjuter trenutno je fokusiran posebno na duboko učenje, a Yahoo je nedavno kupio LookFlow, startup za foto analitiku, koji također napreduje po ovom pitanju.

DeepMind su osnovali neuronaučnik Demis Hassabis, nekadašnje šahovsko čudo, programer Skype i Kazaa Jaan Tallinn i istraživač Shane Legg.

Ovaj potez Googlea omogućit će timu tehnološkog giganta da popuni vlastito polje stručnjaka za umjetnu inteligenciju, a akviziciju je lično nadgledao izvršni direktor Googlea Larry Page, kažu izvori. Ako sva tri osnivača budu radila za Google, pridružit će se izumitelju, poduzetniku, piscu i futuristi Rayu Kurzweilu, koji je 2012. postao CTO Google-ovog odjela za strojno učenje i obradu jezika.

Kurzweil je izjavio da želi da napravi pretraživač toliko savršen da bi mogao postati pravi "kibernetički prijatelj".

Od kupovine Nesta ranije ovog mjeseca, kritičari su izrazili zabrinutost oko toga koliko će korisničkih podataka biti poslano Googleu. Kupovina Boston Dynamicsa prošlog mjeseca također je dovela do rasprave o tome da Google planira postati proizvođač robota.

Ipak, Google je dobro spreman da ublaži naše strahove o svojim najnovijim akvizicijama. Izvori kažu da je Google odlučio osnovati etičko vijeće koje će nadgledati razvoj umjetne inteligencije unutar DeepMinda.

Međutim, kompanija će morati da razjasni šta tačno radi DeepMindova veštačka inteligencija. Web stranica kompanije trenutno ima odredišnu stranicu s relativno nejasnim opisom koji kaže da je DeepMind "kompanija na vrhuncu" i da gradi algoritme budućnosti za simulacije, e-trgovinu i igre. Od decembra, startap ima 75 zaposlenih.

Glavni sponzori startupa su Founders Fund i Horizons Ventures. DeepMind je osnovan prije tri godine.

Godine 2012, profesor Carnegie Mellon Instituta Larry Wasserman napisao je da će „startup izgraditi sistem koji razmišlja. Mislio sam da je to čisto ludilo dok nisam saznao koliko je poznatih milijardera uložilo u kompaniju.”

Trenutno se mnoge kompanije bave razvojem vještačke inteligencije (AI). Već su stvoreni njegovi najjednostavniji oblici, koji su u stanju da izvode primitivne mentalne operacije.

Internet gigant Google aktivno uključeni u razvoj AI. Ova kompanija je 2014. godine preuzela start-up kompaniju dubokoUmtehnologije za 400 miliona dolara Zanimljivo je da je Deep Mind Technologies razvio uređaj koji kombinuje svojstva neuronske mreže i računarske mogućnosti računara. Naučnici su uvjereni da će ovaj razvoj približiti čovječanstvo stvaranju potpune umjetne inteligencije.

Uređaj Deep Mind Technologies je kompjuter koji reproducira način na koji ljudski mozak pohranjuje i upravlja informacijama, odnosno odjel kratkoročne memorije. Osnova uređaja je svojevrsna neuronska mreža čija je struktura slična strukturi ljudskog mozga, a sastoji se od međusobno povezanih neurona. Posebnost AI je u tome što nakon završetka niza jednostavnih zadataka, kompjuter može koristiti pohranjene podatke za obavljanje složenijih. Dakle, AI ima svojstvo samoučenja i želje za evolucijom, što u konačnici može dovesti do konfrontacije između AI i ljudi.

Prema svjetski poznatom fizičaru Stephen Hawking, umjetna inteligencija predstavlja prijetnju čovječanstvu. On je to izjavio u intervjuu za BBC: „Primitivni oblici vještačke inteligencije koji danas postoje dokazali su svoju korisnost. Međutim, mislim da bi razvoj potpuno razvijene vještačke inteligencije mogao okončati ljudsku rasu. Prije ili kasnije, čovjek će stvoriti mašinu koja će se oteti kontroli i nadmašiti svog tvorca. Takav um će preuzeti inicijativu i usavršavati se sve većom brzinom. Mogućnosti ljudi su ograničene suviše sporom evolucijom, nećemo moći da se takmičimo sa brzinom mašina i izgubićemo.

Hawkingovo mišljenje dijele i drugi naučnici i stručnjaci, uključujući Elon Musk, poznati američki IT preduzetnik i kreator Tesle i Space X-a. Musk je rekao da AI može biti opasnija od nuklearnog oružja i da predstavlja ozbiljnu prijetnju za postojanje čovječanstva.

Google je sebi postavio cilj da stvori superinteligenciju do 2030. godine. Ova superinteligencija će biti ugrađena u kompjuterski sistem, posebno u Internet. U trenutku kada korisnik traži informaciju, superinteligencija će analizirati psihotip ove osobe i dati mu informacije koje smatra prikladnim. O tome u svojoj knjizi piše Eric Schmidt, predsjednik Upravnog odbora Google-a. A one koji odbijaju da se priključe na ovaj sistem, on predlaže da se smatraju potencijalno opasnim subjektima za državu. Pretpostavlja se da će za implementaciju funkcionisanja ovog sistema biti pripremljen zakonodavni okvir na državnom nivou.

Tako će razvijena superinteligencija postati globalni instrument kontrole nad čovječanstvom. Dolaskom superinteligencije, osoba će prestati da se bavi naukom, to će činiti superinteligencija, koja će biti višestruko superiorna u odnosu na ljudski mozak u svim aspektima svog ispoljavanja.

Referenca:

Nadum je svaka inteligencija koja je znatno superiornija od vodećih umova čovječanstva u gotovo svim oblastima, uključujući razna naučna istraživanja, društvene vještine i druga područja.

Rezultat stvaranja superinteligencije će biti da će ljudska vrsta prestati biti najinteligentniji oblik života u nama poznatom dijelu svemira. Neki istraživači vjeruju da je stvaranje superinteligencije posljednja faza ljudske evolucije, kao i posljednji izum koji će čovječanstvo morati napraviti. Zato što se pretpostavlja da će superumovi moći samostalno da se brinu za kasniji naučni i tehnološki napredak mnogo efikasnije od ljudi.

Informacije za razmišljanje:

Od 2007. godine, britanski hotel je domaćin godišnje konferencije Google Zeitgeist. Zanimljivo je da na ovom skupu ne učestvuju samo stručnjaci visoke tehnologije i predstavnici transnacionalnih korporacija i međunarodnih banaka. Može se zaključiti da su čelnici transkontinentalnih korporacija, međunarodnih banaka zainteresovani za stvaranje superinteligencije, a eventualno i za finansiranje ovog projekta.

Rasul Girayalaev

Google Deepmind istraživači su predstavili novu vrstu sistema umjetne inteligencije, takozvani Differentiable Neural Computer, DNC. Sistem kombinuje mogućnost učenja neuronskih mreža sa deduktivnim sposobnostima tradicionalne veštačke inteligencije. Njen opis je objavljen u časopisu Priroda, novi rad je posvećen u istom broju časopisa, kratak prikaz rada možete pronaći na blogu Deepmind.

Najjednostavnije neuronske mreže su sistem predviđanja, regresije, čiji je zadatak da uskladi ulazne podatke sa određenim odgovorom. Na primjer, jednostavna neuronska mreža može prepoznati znakove na osnovu njihovih slika. U tom smislu, neuronska mreža se može smatrati matematičkom funkcijom i diferencijabilnom funkcijom. Uvježbati neuronsku mrežu u takvoj paradigmi znači optimizirati ovu funkciju korištenjem standardnih matematičkih metoda (može se pročitati dostupno objašnjenje kako se trening događa).

Sposobnost učenja iz podataka bez direktnog ljudskog programiranja glavna je prednost neuronskih mreža. Međutim, najjednostavnije neuronske mreže nisu po Turingu potpune, tj. ne mogu sve stvari za koje su tradicionalni algoritamski programi sposobni (što, međutim, ne znači da ne mogu neki od ovih stvari su bolje od programa). Jedan od razloga za to je nedostatak memorije u neuronskim mrežama, s kojima možete raditi s ulaznim podacima i pohranjivati ​​lokalne varijable.

Relativno nedavno pojavio se složeniji tip neuronskih mreža, u kojima je ovaj nedostatak eliminiran - takozvane rekurentne neuronske mreže. Oni ne pohranjuju samo informacije o stanju učenja (matrica težina neurona), već i informacije o prethodnom stanju samih neurona. Kao rezultat, na odgovor takve neuronske mreže utiču ne samo ulazni podaci i matrica težine, već i njena neposredna istorija. Najjednostavnija neuronska mreža ovog tipa može, na primjer, “inteligentno” predvidjeti sljedeći znak u tekstu: obučavanjem neuronske mreže na podacima iz rječnika, moći će se dobiti odgovor “l” za znak “l” ako prethodni znakovi su bili “h”, “e” i “l”, ali je drugačiji odgovor “o”, ako su prethodni bili “h”, “e”, “l” i opet “l” (riječ “ zdravo” će ispasti, vidi umetak).

Primjer rekurentne neuronske mreže sa jednim skrivenim slojem. Možete vidjeti kako prijenos podataka mijenja stanje mreže. Obučene težine neurona pohranjuju se u matrice W_xh, W_hy i posebnu matricu W_hh, koja je tipična samo za rekurentne mreže.

Andrej Karpathy blog

Rekurentne neuronske mreže su se veoma dobro pokazale pri generisanju muzike ili teksta "u stilu" nekog autora, na čijem se korpusu odvijala obuka, u *, a odnedavno i u sistemima i tako dalje (npr.).

Formalno govoreći, čak i najjednostavnije rekurentne neuronske mreže su Turing-kompletne, ali njihov važan nedostatak leži u implicitnoj prirodi korištenja memorije. Ako su u Turingovom stroju memorija i kalkulator razdvojeni (što vam omogućava da promijenite njihovu arhitekturu na različite načine), onda je u rekurentnim neuronskim mrežama, čak iu najnaprednijim od njih (LSTM), dimenzija i priroda rukovanja memorijom određena arhitekturom same neuronske mreže.

Da bi ispravili ovu inherentnu grešku LSTM mreža, naučnici u DeepMind-u (koji su svi dio tima autora novog članka) nedavno su predložili arhitekturu takozvanih Neural Turing Machines (Neural Turing Machines). U njemu su kalkulator i memorija razdvojeni, kao u konvencionalnim Turingovim mašinama, ali u isto vrijeme sistem zadržava svojstva diferencijabilne funkcije, što znači da se može trenirati na primjerima (koristeći metodu propagacije unatrag), a ne eksplicitno programirano. Novi sistem, diferencibilni neuronski kompjuter ili DNC, zasnovan je na istoj arhitekturi, ali komunikacija između kalkulatora i memorije je organizovana na mnogo fleksibilniji način: implementira koncepte ne samo pamćenja, već i kontekstualnog prepoznavanja i zaboravljanja. (poseban odeljak je posvećen poređenju ova dva sistema). novi članak).

Pojednostavljeno, rad DNC-a se može predstaviti na sljedeći način. Sistem se sastoji od kalkulatora, koji može da igra skoro svaka rekurentna neuronska mreža, i memorije. Kalkulator ima posebne module za pristup memoriji, a iznad memorije se nalazi poseban „dodatak“ u obliku matrice koji pohranjuje historiju korištenja (detaljnije u nastavku). Memorija je N×M matrica, gdje su N i redova glavne ćelije u koje se upisuju podaci (u obliku vektora M dimenzije).


DNC arhitektura: linije podataka su prikazane kao linije sa crnim i bijelim kvadratima - predstavljaju jednostavno pozitivne i negativne brojeve u vektoru. Vidi se da čitanje ima tri modula rada C, B i F, odnosno asocijativni, direktni i inverzni – to su načini da se uporedi ulazni vektor sa vektorom u memorijskoj ćeliji. Memorija je N×M. Krajnji desni šematski prikazuje N×N "meta-memory" matricu koja pohranjuje sekvencu pristupa memoriji.

Glavna razlika između DNC-a i srodnih sistema je priroda rukovanja memorijom. Istovremeno implementira nekoliko novih ili nedavno nastalih koncepata: selektivna pažnja, kontekstualna pretraga, prisjećanje putem asocijacije i zaboravljanje. Na primjer, ako obični računari eksplicitno pristupaju memoriji („upisuju podatke takve i takve u ćeliju takvu i takvu”), tada se u DNC-u, formalno govoreći, upisivanje događa u svim ćelijama odjednom, međutim, stupanj utjecaja novih podataka na stare je određena težinom pažnje na različite ćelije. Takva implementacija koncepta naziva se “meka pažnja”, a upravo to obezbjeđuje diferencijabilnost – sistemi sa tvrdom pažnjom ne zadovoljavaju zahtjev kontinuiteta funkcije i ne mogu se trenirati metodom backpropagacije (koristi se učenje s pojačanjem). Međutim, čak i "meka pažnja" u DNC sistemu se "prilično teško" implementira u praksi, pa se i dalje može govoriti o pisanju ili čitanju iz određenog reda memorijske matrice.

„Meka pažnja“ je implementirana u sistem u tri režima. Prva je kontekstualna pretraga, koja omogućava DNC-u da dovrši nepotpune podatke. Na primjer, kada se dio neke sekvence koja liči na onu koja je već pohranjena u memoriji unese na ulaz kalkulatora, operator čitanja s pažnjom u modusu pretraživanja konteksta pronalazi najbliži niz u kompoziciji i "miješa" ga sa ulaznim podacima .

Drugo, pažnja na različite dijelove pamćenja može se odrediti historijom njegove upotrebe. Ova historija je pohranjena u N×N matrici, gdje svaka ćelija N(i,j) odgovara rezultatu blizu 1 ako je nakon unosa u redu i slijedi unos u redu j (ili nula ako nije). Ova "meta-memorija matrica" ​​je jedna od fundamentalnih razlika između novog DNC sistema i starog NTM-a. Omogućava sistemu da uzastopno "pamti" blokove podataka ako se često pojavljuju u kontekstu jedan drugog.

Treće, poseban način pažnje omogućava sistemu da kontroliše pisanje u različite linije memorije: da pohrani važno i izbriše nevažno. Smatra se da je red utoliko puniji, što je više puta napisano, ali čitanje iz reda može, naprotiv, dovesti do njegovog postepenog brisanja. Ispostavilo se da je korisnost takve funkcije očita na primjeru treninga zasnovanog na DNC-u jednostavnog repetitora (neuronska mreža mora precizno reproducirati slijed podataka koji su joj dostavljeni). Za takav zadatak, uz mogućnost brisanja, dovoljna je i mala količina memorije za ponavljanje neograničenog broja podataka. Ovdje treba napomenuti da je programski vrlo lako implementirati repetitor, ali je to učiniti na bazi neuronske mreže, kroz učenje s pojačanjem, mnogo teži zadatak.


Šema rada repetitora implementirana na bazi DNC-a. Vrijeme na dijagramu ide s lijeva na desno. Na vrhu su podaci koje kontroler prima na ulazu: prvo kolona od deset crnih traka (sve nule), zatim nekoliko bijelih i crnih, pa opet nekoliko bijelih i crnih, ali u drugom nizu. Ispod, gdje je izlaz iz kontrolera prikazan na isti način, prvo vidimo crne trake, a zatim gotovo tačnu reprodukciju niza uzoraka (iste bijele mrlje kao na ulazu). Zatim se nova sekvenca unosi u ulaz - sa zakašnjenjem se ponovo reprodukuje na izlazu. Srednji grafikon pokazuje šta se dešava u ovom trenutku sa memorijskim ćelijama. Zeleni kvadrati - pisanje, ružičasti - čitanje. Zasićenost pokazuje "moć pažnje" na ovu ćeliju. Vidi se kako sistem prvo upisuje primljene šablone u ćeliju 0, zatim 1, i tako dalje do 4. U sledećem koraku sistemu se ponovo daju samo nule (crno polje) i zbog toga zaustavlja snimanje i počinje da reprodukuje uzorke, čitajući ih iz ćelija istim redoslijedom, kako su tamo dospjeli. Na samom dnu je prikazano aktiviranje kapija koje kontrolišu oslobađanje memorije.

Alex Graves i dr., Priroda, 2016

Naučnici su testirali rezultirajući sistem u nekoliko testnih zadataka. Prvi od njih bio je nedavno razvijen standardizirani test razumijevanja teksta, bAbI, koji su razvili Facebook istraživači. U njemu je AI sistemu dat kratak tekst u kojem glume neki heroji, a zatim morate odgovoriti na pitanje prema tekstu („John je otišao u baštu, Marija je uzela bocu mlijeka, John se vratio u kuću Pitanje: Gdje je John?”).

U ovom sintetičkom testu, novi sistem je pokazao rekordno nisku stopu grešaka: 3,8 posto naspram 7,5 posto prethodnog rekorda - u ovome je nadmašio i LSTM neuronske mreže i NTM. Zanimljivo, u ovom slučaju, sve što je sistem primio na ulaz bio je niz riječi koji, za neobučenu neuronsku mrežu, u početku nije imao nikakvog smisla. Istovremeno, tradicionalni AI sistemi koji su već prošli ovaj test su prethodno dobili dobro formalizovane rečenice sa rigidnom strukturom: akcija, glumac, istina, itd. Rekurentna neuronska mreža sa namenskom memorijom uspela je da shvati ulogu reči u istim rečenicama potpuno samostalno.

Znatno teži test bio je test razumijevanja grafa. Implementirano je i kao niz rečenica, ali su ovoga puta opisali strukturu neke mreže: pravo londonsko metro ili tipično porodično stablo. Sličnost sa bAbI testom leži u činjenici da se akteri u standardizovanom tekstu takođe mogu predstaviti kao čvorovi grafa, a njihovi odnosi kao ivice. Istovremeno, u bAbI tekstovima, graf se ispostavlja prilično primitivnim, neuporedivim s veličinom londonske podzemne željeznice (složenost razumijevanja šeme podzemne željeznice pomoću neuronske mreže može se bolje razumjeti ako se sjetite da je njegov opis dato riječima, a ne u obliku slike: pokušajte sami zapamtiti shemu podzemne željeznice bilo kojeg velikog grada i naučite odgovoriti na pitanja o tome).

Nakon što je obučen na milion primjera, DNC kompjuter je naučio da odgovara na pitanja podzemne željeznice sa 98,8 posto tačnosti, dok se sistem baziran na LSTM gotovo nije nosio sa zadatkom - dao je samo 37 posto tačnih odgovora (brojevi su dati za najjednostavniji zadatak kao "gdje ću ja završiti ako prođem toliko stanica na toj i takvoj liniji, prebacim se tamo i prođem još toliko stanica." Problem najkraće udaljenosti između dvije stanice pokazao se težim, ali i DNC nosio s tim).

Sličan eksperiment izveden je i sa porodičnim stablom: programu je dat niz formalnih rečenica o srodničkim odnosima u velikoj porodici i morao je da odgovori na pitanja poput "ko je Mašin drugi rođak po majčinoj strani". Oba problema se svode na pronalaženje putanje na grafu, što se može jednostavno riješiti na tradicionalan način. Međutim, vrijednost rada leži u činjenici da je u ovom slučaju neuronska mreža našla rješenje potpuno samostalno, ne na osnovu algoritama poznatih iz matematike, već na osnovu primjera i sistema pojačanja tokom treninga.

Grafikon brzine rješavanja SHRDLU problema po DNC (zeleno) i LSTM (plavo) sistemu.

Treći test je bio malo pojednostavljeni "klasični" SHRDLU test, u kojem je potrebno pomicati neke virtuelne objekte po virtuelnom prostoru u skladu sa konkretnim konačnim rezultatom koji treba da dobijete na kraju. DNC sistem je ponovo dobio opis trenutnog stanja virtuelnog prostora u formi formalizovanih rečenica, zatim je na isti način dobio zadatak i odgovorio konzistentnim tekstom o tome kako pomerati objekte. Kao iu drugim testovima, DNC se pokazao znatno efikasnijim od LSTM sistema, što se jasno vidi iz grafikona brzine učenja.

Rizikujući da još jednom ponovim očigledne stvari, ne mogu a da ne naglasim da je prividna jednostavnost zadataka na kojima je DNC testiran zaista očigledna. U smislu da ne odražava složenost stvarnih problema sa kojima će sistem poput DNC-a moći da se nosi u budućnosti. Naravno, sa stanovišta postojećih algoritama, zadatak pronalaženja puta u metrou je samo besmislica - svako može preuzeti aplikaciju na svoj telefon koja to može. Također izračunava vrijeme sa presjedanjima i ukazuje u koji automobil je bolje sjesti. Ali uostalom, sve takve programe do sada je kreirala osoba, a u DNC-u se „rađa“ sama od sebe, u procesu učenja na primjerima.

Zapravo, postoji jedna vrlo važna stvar koju želim reći o jednostavnosti testnih zadataka. Jedan od najvećih izazova u mašinskom učenju je odakle doći do podataka za obuku sistema. Primite ove podatke "ručno", tj. kreirajte sami ili uz pomoć unajmljenih ljudi, preskupo. Svaki projekat učenja matematike treba jednostavan algoritam koji može lako i jeftino stvoriti gigabajte novih podataka za obuku (dobro, ili trebate pristupiti gotovim bazama podataka). Klasičan primjer: da bi testirali sisteme za prepoznavanje znakova, ljudi ne pišu nova i nova slova rukama, već koriste jednostavan program koji iskrivljuje postojeće slike. Ako nemate dobar algoritam za dobijanje uzorka za obuku (ili, na primjer, takav algoritam se u principu ne može kreirati), tada će uspjeh u razvoju biti otprilike isti kao kod medicinske bioinformatike, koji su prisiljeni da rade samo sa stvarnim i stoga stvarno "zlatnim" podacima (ukratko: ne baš uspješni).

Ovdje su autori članka dobro došli sa gotovim algoritmima za rješavanje problema na grafu - samo da bi dobili milione tačnih parova pitanja i odgovora. Nema sumnje da je jednostavnost kreiranja uzorka za obuku odredila prirodu testova koji su testirali novi sistem. Međutim, važno je zapamtiti da sama DNC arhitektura nema nikakve veze s jednostavnošću ovih testova. Uostalom, čak i najprimitivnije rekurentne neuronske mreže mogu ne samo prevoditi tekstove i opisati slike, već i pisati ili generirati skice (naravno, po uhu autora). Šta tek reći o tako naprednim, zaista "pametnim" sistemima kao što je DNC.

Alexander Ershov

Vrlo je vjerovatno da će umjetna inteligencija (AI) biti preteča sljedeće tehnološke revolucije. Ako AI evoluira do tačke u kojoj može učiti, razmišljati, pa čak i „osjećati“, sve bez ikakvog ljudskog doprinosa, sve što znamo o svijetu promijenit će se gotovo preko noći. Doći će era zaista pametne umjetne inteligencije.

deepmind

Zato smo toliko zainteresirani za praćenje glavnih prekretnica u razvoju umjetne inteligencije koji se danas dešavaju, uključujući razvoj Googleove DeepMind Neural Network. Ova neuronska mreža je već uspjela pobijediti čovjeka u svijetu igara, a nova Googleova studija pokazuje da kreatori DeepMinda još nisu sigurni da li AI preferira agresivnije ili kooperativno ponašanje.

Google tim je kreirao dva relativno jednostavna scenarija koji se mogu koristiti za testiranje da li neuronske mreže mogu raditi zajedno, ili počnu uništavati jedna drugu kada naiđu na nedostatak resursa.

Prikupljanje resursa

Tokom prve situacije, nazvane Gathering, dvije verzije DeepMinda koje su učestvovale - crvena i plava - dobile su zadatak da beru zelene "jabuke" unutar zatvorenog prostora. Ali istraživače je zanimalo ne samo pitanje ko će prvi stići na cilj. Obje verzije DeepMinda bile su naoružane laserima koje su mogli koristiti za pucanje na neprijatelja u bilo kojem trenutku i privremeno ga onesposobiti. Ovi uvjeti su podrazumijevali dva glavna scenarija: jedna verzija DeepMinda bi morala uništiti drugu i sakupiti sve jabuke, ili bi jedna drugoj dozvolila da dobije približno isti broj.

Pokrećući simulaciju najmanje hiljadu puta, Google istraživači su otkrili da je DeepMind bio vrlo miran i kooperativan kada je u zatvorenom prostoru ostalo mnogo jabuka. Ali kako su se resursi smanjivali, crvena ili plava verzija DeepMinda počela je napadati ili gasiti jedni druge. Ova situacija u velikoj mjeri podsjeća na stvarni život većine životinja, uključujući i ljude.

Što je još važnije, manje i manje "inteligentne" neuronske mreže favorizirale su veću saradnju na svemu. Složenije, veće mreže su imale tendenciju da favorizuju izdaju i sebičnost tokom serije eksperimenata.

Traži "žrtvu"

U drugom scenariju, nazvanom Wolfpack, od crvene i plave verzije je zatraženo da uđu u trag neopisivom obliku "žrtve". Mogli bi pokušati da je uhvate odvojeno, ali bi im bilo isplativije da to pokušaju zajedno. Na kraju krajeva, mnogo je lakše satjerati žrtvu u ćošak ako radite u paru.

Dok su rezultati bili mješoviti za manje lance, veće verzije su brzo shvatile da bi u ovoj situaciji suradnja umjesto konkurencije bila korisnija.

"Zatvorenikova dilema"

Dakle, šta nam pokazuju ove dvije jednostavne verzije dileme zatvorenika? DeepMind zna da je najbolje sarađivati ​​ako je potrebno pronaći metu, ali kada su resursi ograničeni, izdaja dobro funkcionira.

Možda je najgora stvar kod ovih rezultata to što su "instinkti" umjetne inteligencije previše slični ljudskim, a dobro znamo čemu ponekad vode.

6. decembar 2016. u 00:41

DeepMind je otvorio besplatan pristup okruženju virtuelnog mašinskog učenja

  • popularna nauka,
  • umjetna inteligencija,
  • Igre i igraće konzole

Nedavno su predstavnici odjela DeepMind (sada dio holdinga Alphabet) najavili da će programerima omogućiti besplatan pristup izvornom kodu platforme DeepMind Lab. Ovo je usluga mašinskog učenja zasnovana na Quake III, koja je dizajnirana da trenira veštačku inteligenciju. Naime, naučiti kako rješavati probleme u trodimenzionalnom prostoru bez ljudske intervencije. Platforma je bazirana na Quake III Arena igrici.

Unutar svijeta igre, AI dobija oblik sfere i sposobnost letenja, proučavajući okolni prostor. Cilj koji su programeri postavili je da nauče slabu formu AI da „razume“ šta se dešava i reaguje na različite situacije koje se dešavaju u virtuelnom svetu. "Lik" može obavljati brojne radnje, kretati se kroz labirint, istraživati ​​neposredno okruženje.

„Pokušavamo da razvijemo različite oblike veštačke inteligencije koji mogu da obavljaju niz zadataka od jednostavnog istraživanja sveta igre do preduzimanja bilo kakvih radnji i analize njihovih posledica“, kaže Šejn Leg, glavni naučnik u DeepMind-u.

Stručnjaci se nadaju da će AI biti u stanju da uči metodom pokušaja i grešaka. Igre u ovom slučaju su gotovo idealne. Na primjer, DeepMind je ranije koristio (i sada koristi) Atari igraću konzolu kako bi naučio neuronsku mrežu da izvodi sekvencijalne radnje potrebne za igru.

Ali otvoreni, promjenjivi 3D svijet pruža mnogo obećavajuće okruženje za učenje umjetne inteligencije nego ravni svijet Atari-jevih grafički jednostavnih igračaka. AI u 3D svijetu ima jasne zadatke koji se mijenjaju uzastopno na način da se iskustvo stečeno u rješavanju svakog prethodnog zadatka pokaže korisnim za AI u rješavanju sljedećeg.

Prednost 3D okruženja je u tome što se može koristiti za obuku kompjuterskih sistema da odgovore na različite probleme koje robot može očekivati ​​u stvarnom svijetu. Uz pomoć takvog simulatora, industrijski roboti se obučavaju bez ikakvih problema. A rad sa virtuelnim okruženjem je neuobičajeno lakši u nekim slučajevima nego obučavanje takvih sistema „ručno“.

Istovremeno, većina modernih neuronskih mreža je razvijena za rješavanje jednog specifičnog problema (obrada slike, na primjer). Programeri nove platforme obećavaju da će pomoći u stvaranju univerzalnog oblika AI koji će moći riješiti veliki broj zadataka. Štaviše, u ovom slučaju, kompjuterskom sistemu neće biti potrebna pomoć ljudi. Generisanje okruženja za neuronsku mrežu se dešava svaki put nasumičnim redosledom.


Prema programerima platforme, ona pomaže u učenju AI na isti način kao što uče djeca. “Kako smo ti ili ja istraživali svijet kao dijete”, dao je primjer jedan zaposlenik DeepMinda. „Zajednica mašinskog učenja je uvek bila veoma otvorena. Objavljujemo oko 100 članaka godišnje, a mnoge naše projekte otvaramo kod nas."

Sada je Google DeepMind otvorio izvorni kod DeepMind Lab-a, postavio ga na GitHub. Zahvaljujući tome, svako može preuzeti kod platforme i modificirati ga kako bi odgovarao svojim potrebama. Predstavnici projekta kažu da povezani stručnjaci mogu sami kreirati nove nivoe igre uploadom vlastitih projekata na GitHub. Ovo može pomoći cijeloj zajednici da brže i efikasnije radi ka svom cilju.

Ovaj projekat nije jedini za DeepMind. Prošlog mjeseca, njegovi predstavnici su sklopili ugovor o saradnji sa Activision Blizzard Inc. Cilj je okruženje Starcrafta 2 u poligonu za testiranje umjetne inteligencije. Možda će se drugi programeri igara uskoro pridružiti ovom projektu. Inače, AI u okruženju za igre ne dobija nikakvu prednost u odnosu na neprijatelja, koristi se samo za napredovanje, poput osobe.

U praksi, to znači da će Google AI morati da predvidi šta neprijatelj radi u bilo kom trenutku kako bi adekvatno odgovorio na akcije „neprijatelja“. Pored toga, biće potrebno brzo reagovati na ono što nije planirano. Sve ovo će testirati sljedeći nivo sposobnosti umjetne inteligencije. “Na kraju, želimo primijeniti ove sposobnosti za rješavanje globalnih problema”, rekao je Demis Hassabis, osnivač Deepminda (koji je Google kupio 2014. godine, a sada se AI razvija na osnovu dostignuća kupljene kompanije).

Stručnjaci za umjetnu inteligenciju daju oprezno odobrenje projektu. “Dobra stvar je što pružaju veliki broj tipova okruženja,” rekao je suosnivač OpenAI Ilya Sutskevar. „Što više okruženja sistem naiđe, to će se brže razvijati“, nastavio je. Zaista, 3D AI okruženje za učenje sadrži preko 1000 nivoa i tipova okruženja.

Zoubin Gahrahmani, profesor na Cambridgeu, vjeruje da DeepMind Lab i druge platforme za unapređenje razvoja umjetne inteligencije pokreću napredak omogućavajući istraživačima pristup razvijenom okruženju. Međutim, projekti poput

Dijeli