A DeepMind ingyenes hozzáférést biztosított egy virtuális gépi tanulási környezethez. A Google tesztelte a DeepMind mesterséges intelligenciát a „fogolydilemma” körülményei között.

A Google megvásárolja a londoni székhelyű DeepMind mesterséges intelligencia vállalatot. A források több mint 500 millió dollárnak nevezik a tranzakció összegét. A vásárlást a Google képviselői hivatalosan is megerősítették.


Mit ad a Google ennek az akvizíciónak? Először is, lehetővé teszi számára, hogy versenyezzen más nagy technológiai vállalatokkal, köszönhetően a mély tanulásra való összpontosításának. A Facebook például nemrégiben Yann LeKanna professzort kérte fel saját mesterséges intelligencia-fejlesztésének vezetésére. Az IBM Watson szuperszámítógépe jelenleg kifejezetten a mély tanulásra fókuszál, a Yahoo pedig nemrégiben felvásárolta a LookFlow nevű fotóelemző startupot, amely szintén halad ebben az ügyben.

A DeepMind-et Demis Hassabis idegtudós, egykori sakkcsodagyerek, a Skype és a Kazaa fejlesztője, Jaan Tallinn, valamint Shane Legg kutató alapította.

A Google lépése lehetővé teszi, hogy a technológiai óriás csapata feltöltse saját mesterséges intelligencia-szakértői körét, a felvásárlást pedig a Google vezérigazgatója, Larry Page személyesen felügyelte a források szerint. Ha mindhárom alapító a Google-nál dolgozik, csatlakoznak Ray Kurzweil feltalálóhoz, vállalkozóhoz, íróhoz és futuristahoz, aki 2012-ben a Google gépi tanulási és nyelvfeldolgozási részlegének műszaki igazgatója lett.

Kurzweil kijelentette, hogy olyan tökéletes keresőmotort akart építeni, amelyből igazi "kibernetikus barát" válhat.

A Nest e hónap eleji felvásárlása óta a kritikusok aggodalmukat fejezték ki azzal kapcsolatban, hogy mennyi felhasználói adatot küldenek a Google-nak. A Boston Dynamics múlt hónapban történt megvásárlása vitához vezetett arról is, hogy a Google robotgyártóvá kíván válni.

Ennek ellenére a Google felkészült arra, hogy eloszlassa a félelmeinket a legutóbbi felvásárlásaival kapcsolatban. A források szerint a Google úgy döntött, hogy létrehoz egy etikai tanácsot, amely felügyeli a mesterséges intelligencia fejlesztését a DeepMinden belül.

A cégnek azonban tisztáznia kell, hogy pontosan mit is csinál a DeepMind mesterséges intelligenciája. A cég honlapján jelenleg található egy nyitóoldal, amelynek leírása viszonylag homályos, és arról szól, hogy a DeepMind „egy élvonalbeli vállalat”, és a jövő algoritmusait építi a szimulációk, az e-kereskedelem és a játékok számára. Decemberben a startup 75 alkalmazottat foglalkoztat.

A startup fő támogatói a Founders Fund és a Horizons Ventures. A DeepMind-et három éve alapították.

2012-ben a Carnegie Mellon Intézet professzora, Larry Wasserman azt írta, hogy „egy startup olyan rendszert fog felépíteni, amely gondolkodik. Tiszta őrületnek tartottam, amíg meg nem jöttem, hány híres milliárdos fektetett be a cégbe.”

Jelenleg sok vállalat foglalkozik mesterséges intelligencia (AI) fejlesztésével. Már létrejöttek a legegyszerűbb formái, amelyek primitív mentális műveletek végrehajtására képesek.

Internet óriás Google aktívan részt vesz az AI fejlesztésében. 2014-ben ez a cég felvásárolt egy induló céget mélyÉsztechnológiákat 400 millió dollárért Érdekes módon a Deep Mind Technologies kifejlesztett egy olyan eszközt, amely egyesíti a neurális hálózat tulajdonságait és a számítógép számítási képességeit. A tudósok biztosak abban, hogy ez a fejlemény közelebb viszi az emberiséget egy teljes értékű mesterséges intelligencia létrehozásához.

A Deep Mind Technologies eszköz egy számítógép, amely reprodukálja az emberi agy információtárolási és -kezelési módját, nevezetesen a rövid távú memória részlegét. A készülék alapja egyfajta neurális hálózat, amelynek felépítése hasonló az emberi agy szerkezetéhez, összefüggő neuronokból áll. Az AI sajátossága, hogy egy sor egyszerű feladat elvégzése után a számítógép a tárolt adatokat bonyolultabb feladatok elvégzésére is felhasználhatja. Így a mesterséges intelligencia az öntanulás és az evolúció iránti vágy tulajdonságával rendelkezik, ami végső soron konfrontációhoz vezethet az MI és az emberek között.

A világhírű fizikus szerint Stephen Hawking, a mesterséges intelligencia veszélyt jelent az emberiségre. A BBC-nek adott interjújában ezt nyilatkozta: „A mesterséges intelligencia ma létező primitív formái bebizonyították hasznosságukat. Azonban úgy gondolom, hogy egy teljes értékű mesterséges intelligencia kifejlesztése véget vethet az emberi fajnak. Az ember előbb-utóbb olyan gépet hoz létre, amely kicsúszik az irányítás alól, és felülmúlja alkotóját. Az ilyen elme kezdeményez, és egyre gyorsabban fejleszti magát. Az emberek lehetőségeit behatárolja a túl lassú evolúció, nem fogjuk tudni felvenni a versenyt a gépek sebességével és veszíteni fogunk.

Hawking véleményét más tudósok és szakemberek is osztják, köztük Elon Musk, egy ismert amerikai informatikai vállalkozó, a Tesla és a Space X megalkotója. Musk szerint az AI veszélyesebb lehet, mint az atomfegyver, és komoly veszélyt jelent az emberiség létére.

A Google azt a célt tűzte ki maga elé, hogy 2030-ra szuperintelligenciát hoz létre. Ezt a szuperintelligenciát számítógépes rendszerbe ágyazzák, különösen az interneten. Abban a pillanatban, amikor a felhasználó információt keres, a szuperintelligencia elemzi ennek a személynek a pszichotípusát, és megadja neki az általa megfelelőnek tartott információkat. Eric Schmidt, a Google igazgatótanácsának elnöke erről ír könyvében. Aki pedig nem hajlandó csatlakozni ehhez a rendszerhez, azt javasolja, hogy tekintsék potenciálisan veszélyes alanynak az állam számára. Feltételezhető, hogy e rendszer működésének megvalósításához állami szintű jogszabályi keretet készítenek.

Így a fejlett szuperintelligencia az emberiség feletti ellenőrzés globális eszközévé válik. A szuperintelligencia megjelenésével az ember abbahagyja a tudományt, ezt a szuperintelligencia fogja megtenni, amely sokszorosan felülmúlja az emberi agyat minden megnyilvánulási szempontból.

Referencia:

Overmind minden olyan elme, amely szinte minden területen felülmúlja az emberiség vezető elméit, beleértve a különféle tudományos kutatásokat, szociális készségek és egyéb területeket.

A szuperintelligencia létrejöttének az lesz az eredménye, hogy az emberi faj megszűnik a legintelligensebb életforma lenni a világegyetem általunk ismert részén. Egyes kutatók úgy vélik, hogy a szuperintelligencia létrehozása az emberi evolúció utolsó szakasza, valamint az utolsó találmány, amelyet az emberiségnek meg kell alkotnia. Mert azt feltételezik, hogy a szuperelmék sokkal hatékonyabban képesek önállóan gondoskodni a későbbi tudományos és technológiai fejlődésről, mint az emberek.

Elgondolkodtató információ:

2007 óta egy brit szálloda ad otthont az éves Google Zeitgeist konferenciának. Érdekes módon nem csak high-tech szakemberek, valamint transznacionális vállalatok és nemzetközi bankok képviselői vesznek részt ezen a találkozón. Megállapítható, hogy a transzkontinentális nagyvállalatok és a nemzetközi bankok vezetői érdekeltek egy szuperintelligencia létrehozásában, és adott esetben ennek a projektnek a finanszírozásában.

Rasul Girajalajev

A Google Deepmind kutatói egy új típusú mesterséges intelligencia rendszert, az úgynevezett Differentiable Neural Computert, a DNC-t mutatták be. A rendszer egyesíti a neurális hálózatok tanulhatóságát a hagyományos AI deduktív képességeivel. Leírása megjelent a folyóiratban Természet, a folyóirat ugyanebben a számában egy új művet szentelnek, a mű rövid átbeszélése a Deepmind blogon található.

A legegyszerűbb neurális hálózatok egy előrejelzési, regressziós rendszer, amelynek az a feladata, hogy a bemeneti adatokat egy bizonyos válasszal párosítsa. Például egy egyszerű neurális hálózat képes felismerni a karaktereket a képeik alapján. Ebben az értelemben a neurális hálózat matematikai függvénynek és differenciálható függvénynek tekinthető. Egy neurális hálózat ilyen paradigmában való betanítása azt jelenti, hogy szabványos matematikai módszerekkel optimalizáljuk ezt a funkciót (a képzés folyamatának hozzáférhető magyarázata olvasható).

Az adatokból való tanulás közvetlen emberi programozás nélkül a neurális hálózatok fő előnye. A legegyszerűbb neurális hálózatok azonban nem Turing-teljesek, vagyis nem képesek minden olyan dolgokat, amelyekre a hagyományos algoritmikus programok képesek (ami azonban nem jelenti azt, hogy nem tehetik meg néhány ezek közül a dolgok jobbak, mint a programok). Ennek egyik oka a neurális hálózatok memóriahiánya, amellyel bemeneti adatokkal lehet operálni és lokális változókat tárolni.

Viszonylag a közelmúltban jelentek meg a neurális hálózatok bonyolultabb típusai, amelyekben ez a hátrány megszűnt - az úgynevezett visszatérő neurális hálózatok. Nemcsak a tanulás állapotáról tárolnak információkat (az idegsejtek súlyának mátrixa), hanem maguknak az idegsejteknek a korábbi állapotáról is. Ennek eredményeként egy ilyen neurális hálózat válaszát nemcsak a bemeneti adatok és a súlymátrix befolyásolja, hanem a közvetlen története is. Az ilyen típusú legegyszerűbb neurális hálózat például „intelligensen” képes megjósolni a következő karaktert a szövegben: a neurális hálózat szótári adatokon való betanításával az „l” karakterre „l” választ kaphatunk, ha az előző karakterek „h”, „e” és „l” voltak, de eltérő válasz „o”, ha az előzőek „h”, „e”, „l” és ismét „l” voltak (a „ hello” fog kiderülni, lásd a betétet).

Példa egy ismétlődő neurális hálózatra egy rejtett réteggel. Láthatja, hogyan változtatja meg az adatfolyam a hálózat állapotát. A neuronok betanított súlyait a W_xh, W_hy mátrixok és egy speciális W_hh mátrix tárolja, amely csak a visszatérő hálózatokra jellemző.

Andrej Karpathy blog

Az ismétlődő neurális hálózatok nagyon jól mutatták magukat, amikor zenét vagy szöveget generálnak olyan szerzők "stílusában", akiknek korpuszán a képzés történt, *-ben és mostanában rendszerekben és így tovább (például).

Formálisan még a legegyszerűbb ismétlődő neurális hálózatok is Turing-teljesek, de jelentős hátrányuk a memóriahasználat implicit természetében rejlik. Ha a Turing-gépben a memória és a számológép el van választva (ami lehetővé teszi az architektúra különböző módon történő megváltoztatását), akkor a visszatérő neurális hálózatokban, még a legfejlettebbben (LSTM) is, a memóriakezelés dimenziója és jellege maga a neurális hálózat architektúrája határozza meg.

Az LSTM-hálózatok ezen eredendő hibájának kijavítására a DeepMind tudósai (mindnyájan az új cikk szerzőinek csoportjába tartoznak) a közelmúltban javasolták az úgynevezett Neurális Turing-gépek (Neural Turing Machines) architektúráját. Ebben a számológép és a memória elválik, mint a hagyományos Turing-gépeknél, ugyanakkor a rendszer megőrzi a differenciálható függvény tulajdonságait, ami azt jelenti, hogy példákkal (backpropagation módszerrel) tanítható, és nem kifejezetten. programozott. Az új rendszer, a differenciálható neurális számítógép, vagyis a DNC ugyanazon az architektúrán alapul, de a számológép és a memória közötti kommunikáció sokkal rugalmasabb módon szerveződik: nemcsak a memorizálás, hanem a kontextuális felismerés és a felejtés koncepcióját is megvalósítja. (a két rendszer összehasonlításának külön szakaszt szentelünk). új cikk).

Leegyszerűsítve a DNC munkája a következőképpen ábrázolható. A rendszer egy számológépből, amelyet szinte bármilyen visszatérő neurális hálózat lejátszhat, és memóriából áll. A számológép speciális modulokkal rendelkezik a memória elérésére, a memória felett pedig egy speciális „kiegészítés” található mátrix formájában, amely tárolja a használat előzményeit (bővebben lent). A memória egy N×M mátrix, ahol N i sor a fő cella, ahová az adatokat írjuk (M dimenziójú vektorok formájában).


DNC architektúra: az adatvonalak fekete-fehér négyzetekkel ellátott vonalakként jelennek meg – egyszerűen pozitív és negatív számokat jelentenek a vektorban. Látható, hogy az olvasásnak három munkamodulja van: C, B és F, azaz asszociatív, direkt és inverz – így lehet összehasonlítani a bemeneti vektort a memóriacellában lévő vektorral. A memória N×M. A jobb szélső vázlatosan egy N × N "metamemória" mátrixot mutat be, amely a memória hozzáférési sorrendet tárolja.

A fő különbség a DNC és a kapcsolódó rendszerek között a memóriakezelés természete. Egyszerre több új vagy a közelmúltban megjelenő koncepciót valósít meg: szelektív figyelem, kontextuális keresés, asszociációs felidézés és felejtés. Például, ha a közönséges számítógépek kifejezetten hozzáférnek a memóriához ("az ilyen és ehhez hasonló adatokat írjon egy cellába ilyen és olyan"), akkor a DNC-ben formálisan az írás minden cellában egyszerre történik, azonban az új adatok befolyásának mértéke A régi adatokat a különböző cellákra fordított figyelem súlya határozza meg. A fogalom ilyen megvalósítását „puha figyelemnek” nevezzük, és éppen ez biztosítja a differenciálhatóságot - a kemény odafigyeléssel rendelkező rendszerek nem elégítik ki a funkciófolytonosság követelményét, és nem képezhetők visszapropagációs módszerrel (megerősítő tanulást alkalmaznak). A DNC rendszerben azonban még a "puha figyelem" is "meglehetősen keményen" valósul meg a gyakorlatban, így a memóriamátrix egy bizonyos sorából még mindig beszélhetünk írásról vagy olvasásról.

A „puha figyelem” három módban valósul meg a rendszerben. Az első a kontextuális keresés, amely lehetővé teszi a DNC számára a hiányos adatok kiegészítését. Például, amikor valamilyen, a memóriában tárolthoz hasonló szekvenciát adunk a számológép bemenetére, a szövegkörnyezet-keresési módban a read operátor megkeresi az összetételben a legközelebbi karakterláncot, és „keverik” azt a bemeneti adatokkal.

Másodszor, az emlékezet különböző részeire való odafigyelést a felhasználás története határozhatja meg. Ezt az előzményt egy N×N mátrixban tároljuk, ahol minden egyes N(i,j) cella 1-hez közeli pontszámnak felel meg, ha az i. sor bejegyzését a j sor bejegyzése követte (vagy nulla, ha nem). Ez a "meta-memóriamátrix" az egyik alapvető különbség az új DNC rendszer és a régi NTM között. Lehetővé teszi a rendszer számára, hogy szekvenciálisan „megjegyezze” az adatblokkokat, ha azok gyakran előfordulnak egymással összefüggésben.

Harmadszor, egy speciális figyelési mód lehetővé teszi a rendszer számára, hogy vezérelje a memória különböző soraiba történő írást: tárolja a fontosat, és törölje a lényegtelent. A sort minél teltebbnek tekintjük, minél többször írták, de a sorból való olvasás éppen ellenkezőleg, annak fokozatos törléséhez vezethet. Egy ilyen funkció hasznossága nyilvánvalónak bizonyul az egyszerű átjátszó DNC-jén alapuló betanítás példáján (a neurális hálózatnak pontosan reprodukálnia kell a rá betáplált adatsort). Egy ilyen feladathoz, a törlés lehetőségével, kis memória is elegendő korlátlan számú adat ismétléséhez. Itt kell megjegyezni, hogy nagyon egyszerű programozottan megvalósítani az átjátszót, de neurális hálózat alapján, a megerősítő tanulás miatt, sokkal nehezebb feladat.


DNC alapján megvalósított átjátszó működési sémája. A diagramon az idő balról jobbra halad. Felül láthatók azok az adatok, amelyeket a vezérlő a bemeneten kap: először egy tíz fekete sávból álló oszlop (mind nulla), majd néhány fehér és fekete, majd ismét több fehér és fekete, de más sorrendben. Alul, ahol a vezérlő kimenete ugyanúgy megjelenik, először fekete sávokat látunk, majd a minták sorozatának szinte pontos reprodukcióját (ugyanaz a fehér folt, mint a bemeneten). Ezután egy új szekvencia kerül a bemenetre - késleltetéssel a kimeneten ismét reprodukálódik. A középső grafikon azt mutatja, hogy mi történik ilyenkor a memóriacellákkal. Zöld négyzetek - írás, rózsaszín - olvasás. A telítettség megmutatja a „figyelem erejét” erre a bizonyos sejtre. Látható, hogy a rendszer először a 0-s cellába írja a kapott mintákat, majd az 1-et, és így tovább egészen 4-ig. A következő lépésben a rendszer ismét csak nullákat (fekete mezőt) kap, ezért leállítja a felvételt és elkezdi a lejátszást. mintákat, ugyanabban a sorrendben kiolvasva azokat a cellákból, hogyan kerültek oda. Legalul a memóriafelszabadítást vezérlő kapuk aktiválása látható.

Alex Graves és társai, Nature, 2016

A tudósok több tesztfeladatban is tesztelték a kapott rendszert. Ezek közül az első a Facebook kutatói által nemrég kifejlesztett szabványosított szövegértési teszt, a bAbI volt. Ebben az AI-rendszer kap egy rövid szöveget, ahol néhány hős lép fel, majd meg kell válaszolnia egy kérdésre a szöveg szerint („János kiment a kertbe, Mária vett egy üveg tejet, John visszatért a házba Kérdés: Hol van János?”).

Ebben a szintetikus tesztben az új rendszer rekordalacsony hibaarányt mutatott: 3,8 százalék a korábbi rekord 7,5 százalékával szemben – ebben az LSTM neurális hálózatokat és az NTM-et is felülmúlta. Érdekes módon ebben az esetben a rendszer csak egy szósorozatot kapott a bemeneten, aminek egy képzetlen neurális hálózat esetében elsőre semmi értelme nem volt. Ugyanakkor a hagyományos mesterséges intelligencia rendszerek, amelyek már átmentek ezen a teszten, korábban jól formalizált, merev szerkezetű mondatokat kaptak: cselekvés, szereplő, igazság stb. A dedikált memóriával rendelkező visszatérő neurális hálózat képes volt rájönni a szavak szerepére. ugyanazokban a mondatokban teljesen függetlenül.

Lényegesen nehezebb teszt volt a grafikonértési teszt. Mondatsorként is megvalósult, de ezúttal valamilyen hálózat felépítését írták le: egy igazi londoni metró vagy egy tipikus családfa. A bAbI teszttel való hasonlóság abban rejlik, hogy a szabványosított szöveg szereplői gráf csomópontokként, kapcsolataik pedig élként is ábrázolhatók. Ugyanakkor a bAbI-szövegekben a grafikon meglehetősen primitívnek bizonyul, összehasonlíthatatlan a londoni metró méretével (a metró sémájának megértésének bonyolultsága egy neurális hálózat segítségével jobban megérthető, ha emlékszel, hogy leírása szavakkal megadva, nem kép formájában: próbálja meg memorizálni bármelyik nagyváros metrósémáját, és tanuljon meg válaszolni az ezzel kapcsolatos kérdésekre).

A DNC számítógép millió példán való betanítás után megtanult 98,8 százalékos pontossággal válaszolni a metrókérdésekre, míg az LSTM alapú rendszer szinte nem birkózott meg a feladattal - mindössze 37 százalékban adott helyes választ (a számok a legegyszerűbb feladatnál vannak megadva). mint a „hova kerülök, ha elhaladok annyi állomáson egy ilyen és olyan vonalon, átszállok oda és még annyi állomáson haladok el.” A két állomás közötti legrövidebb távolság problémája nehezebbnek bizonyult, de a DNC is megbirkózott vele).

Hasonló kísérletet végeztek egy családfával is: a program egy sor formális mondatot kapott a nagycsaládban fennálló rokoni kapcsolatokról, és olyan kérdésekre kellett válaszolnia, mint "ki másodunokatestvére Másának az anyja felől". Mindkét probléma egy grafikonon való elérési út megkeresésére redukálódik, amelyet a hagyományos módon egyszerűen megoldanak. A munka értéke azonban abban rejlik, hogy ebben az esetben a neurális háló teljesen önállóan, nem matematikából ismert algoritmusok, hanem példák és a betanítás során megerősítő rendszer alapján talált megoldást.

Az SHRDLU probléma megoldási sebességének grafikonja DNC (zöld) és LSTM (kék) rendszerekkel.

A harmadik teszt egy kissé leegyszerűsített "klasszikus" SHRDLU teszt volt, amelyben néhány virtuális objektumot kell mozgatnia a virtuális térben egy konkrét végeredménynek megfelelően, amelyet a végén meg kell kapnia. A DNC rendszer ismét formalizált mondatok formájában kapott leírást a virtuális tér aktuális állapotáról, majd ugyanígy kapott egy feladatot, és konzisztens szöveggel válaszolt az objektumok mozgatására. Más tesztekhez hasonlóan a DNC lényegesen hatékonyabbnak bizonyult, mint az LSTM rendszerek, ami jól látszik a tanulási sebesség grafikonokon.

Azt kockáztatva, hogy ismételten megismétlem a nyilvánvaló dolgokat, nem tudom csak hangsúlyozni, hogy a DNC-t tesztelő feladatok látszólagos egyszerűsége valóban szembetűnő. Abban az értelemben, hogy nem tükrözi a valós problémák összetettségét, amelyeket egy olyan rendszer, mint a DNC, képes lesz kezelni a jövőben. Persze a létező algoritmusok szempontjából a metróban való útkeresés csak nonszensz - bárki letölthet a telefonjára egy olyan alkalmazást, ami erre képes. Az átszállásokkal is kiszámolja az időt, és jelzi, melyik autóba érdemesebb beülni. De elvégre az összes ilyen programot eddig ember készítette, és a DNC-ben magától „születik”, a példákból való tanulás során.

Valójában egy nagyon fontos dolgot szeretnék elmondani a tesztfeladatok egyszerűségéről. A gépi tanulás egyik legnagyobb kihívása az, hogy honnan szerezzük be azokat az adatokat, amelyek alapján betanítható a rendszer. Fogadja ezeket az adatokat "kézzel", azaz hozzon létre saját maga vagy bérelt emberek segítségével, túl drága. Minden matematikai tanulási projekthez szükség van egy egyszerű algoritmusra, amely könnyen és olcsón képes gigabájtnyi új adatot létrehozni a képzéshez (na jó, vagy kész adatbázisokhoz kell hozzáférni). Klasszikus példa: a karakterfelismerő rendszerek tesztelésére nem kézzel írnak új és új betűket, hanem egy egyszerű programot használnak, amely eltorzítja a meglévő képeket. Ha nincs jó algoritmusa a képzési minta beszerzésére (vagy pl. elvileg nem is lehet ilyen algoritmust létrehozni), akkor a fejlesztés sikere körülbelül akkora lesz, mint az orvosi bioinformatikusoké, akik kénytelenek dolgozni. csak valódiakkal és ezért tényleg "arany" adatokkal (dióhéjban: nem túl sikeres).

A cikk szerzői itt jöttek jól a kész algoritmusokkal a problémák grafikonon történő megoldására - csak azért, hogy milliónyi helyes kérdés-válaszpárt kapjanak. Kétségtelen, hogy a képzési minta létrehozásának egyszerűsége meghatározta az új rendszert tesztelő tesztek jellegét. Fontos azonban megjegyezni, hogy magának a DNC architektúrának semmi köze ezeknek a teszteknek az egyszerűségéhez. Hiszen a legprimitívebb, visszatérő neurális hálózatok is nemcsak szövegeket tudnak lefordítani és képeket leírni, hanem vázlatokat is írni vagy generálni (természetesen a szerző fülére). Mit is mondhatnánk az olyan fejlett, igazán "okos" rendszerekről, mint a DNC.

Alexander Ershov

Nagyon valószínűnek tűnik, hogy a mesterséges intelligencia (AI) lesz a következő technológiai forradalom előhírnöke. Ha a mesterséges intelligencia odáig fejlődik, hogy képes tanulni, gondolkodni és még „érezni” is, mindezt emberi beavatkozás nélkül, minden, amit a világról tudunk, szinte egyik napról a másikra megváltozik. Eljön az igazán okos mesterséges intelligencia korszaka.

mély elme

Ezért vagyunk annyira érdekeltek a mesterséges intelligencia fejlesztésének napjainkban zajló főbb mérföldkövei nyomon követésében, beleértve a Google DeepMind neurális hálózatának fejlesztését is. Ez a neurális hálózat már képes volt legyőzni egy embert a játékvilágban, és a Google új tanulmánya szerint a DeepMind alkotói még nem biztosak abban, hogy az AI az agresszívebb vagy az együttműködőbb viselkedést részesíti előnyben.

A Google csapata két viszonylag egyszerű forgatókönyvet készített, amelyek segítségével tesztelhető, hogy a neurális hálózatok együtt tudnak-e működni, vagy elkezdik-e tönkretenni egymást, amikor erőforráshiányba ütköznek.

Erőforrások gyűjtése

Az első, Gathering nevű szituáció során a DeepMind két résztvevő verziója – a piros és a kék – azt a feladatot kapta, hogy zárt térben szüreteljenek be zöld "almát". A kutatókat azonban nem csak az a kérdés érdekelte, hogy ki ér el elsőként a célba. A DeepMind mindkét verziója lézerekkel volt felfegyverezve, amelyek segítségével bármikor tüzelhettek az ellenségre, és ideiglenesen letilthatták azokat. Ezek a feltételek két fő forgatókönyvet tartalmaztak: a DeepMind egyik verziójának meg kell semmisítenie a másikat, és össze kell gyűjtenie az összes almát, vagy lehetővé teszik egymásnak, hogy megközelítőleg ugyanannyit kapjanak.

A szimulációt legalább ezerszer lefuttatva a Google kutatói azt találták, hogy a DeepMind nagyon békés és együttműködő volt, amikor rengeteg alma maradt egy zárt térben. De ahogy az erőforrások fogytak, a DeepMind piros vagy kék verziója támadni kezdte vagy lekapcsolta egymást. Ez a helyzet nagyrészt a legtöbb állat, köztük az ember valós életére emlékeztet.

Ennél is fontosabb, hogy a kisebb és kevésbé "intelligens" neurális hálózatok mindenben a nagyobb együttműködést támogatták. Az összetettebb, nagyobb hálózatok a kísérletsorozat során az árulást és az önzést részesítették előnyben.

Keresd az "áldozatot"

A második forgatókönyvben, a Wolfpack néven, a piros és kék változatot arra kérték, hogy kutassák fel egy nem leírhatatlan "áldozat" alakot. Megpróbálhatnák külön-külön is elkapni, de jövedelmezőbb lenne, ha együtt próbálnák meg. Hiszen sokkal könnyebb sarokba szorítani az áldozatot, ha párban dolgozol.

Míg a kisebb láncok eredményei vegyesek voltak, a nagyobb változatok hamar rájöttek, hogy ebben a helyzetben az együttműködés, nem pedig a versengés lenne előnyösebb.

"Fogolydilemma"

Mit mutat tehát nekünk a fogolydilemma két egyszerű változata? A DeepMind tudja, hogy a legjobb az együttműködés, ha egy célpont felkutatására van szükség, de ha korlátozottak az erőforrások, az árulás az, ami jól működik.

Talán az a legrosszabb ezekben az eredményekben, hogy a mesterséges intelligencia „ösztönei” túlságosan hasonlítanak az emberiséghez, és jól tudjuk, hogy néha mihez vezetnek.

2016. december 6. 00:41

A DeepMind ingyenes hozzáférést nyitott egy virtuális gépi tanulási környezethez

  • Népszerű tudomány,
  • Mesterséges intelligencia ,
  • Játékok és játékkonzolok

A közelmúltban a DeepMind részleg (ma az Alphabet holding része) képviselői bejelentették, hogy ingyenes hozzáférést biztosítanak a fejlesztők számára a DeepMind Lab platform forráskódjához. Ez egy Quake III-on alapuló gépi tanulási szolgáltatás, amelyet a mesterséges intelligencia képzésére terveztek. Mégpedig megtanulni, hogyan lehet problémákat megoldani a háromdimenziós térben emberi beavatkozás nélkül. A platform a Quake III Arena játékmotorra épül.

A játékvilágon belül a mesterséges intelligencia gömb alakot kap, és képes repülni, tanulmányozva a környező teret. A fejlesztők azt a célt tűzték ki, hogy az AI egy gyenge formáját megtanítsák „megérteni” a történéseket és reagálni a virtuális világban előforduló különféle helyzetekre. A „karakter” számos műveletet hajthat végre, mozoghat a labirintusban, felfedezheti a közvetlen környezetet.

„Az AI különféle formáit próbáljuk kifejleszteni, amelyek a játékvilág egyszerű felfedezésétől kezdve a cselekvések megtételéig és azok következményeinek elemzéséig számos feladat elvégzésére képesek” – mondja Shane Legg, a DeepMind vezető tudósa.

A szakértők remélik, hogy a mesterséges intelligencia képes lesz próba és hiba útján tanulni. A játékok ebben az esetben szinte ideálisak. Például a DeepMind korábban használta (és jelenleg is használja) az Atari játékkonzolt, hogy megtanítsa a neurális hálózatot a játékhoz szükséges szekvenciális műveletek végrehajtására.

A nyitott, módosítható 3D-s világ azonban sokkal ígéretesebb környezetet biztosít a mesterséges intelligencia tanulásához, mint a grafikusan egyszerű Atari játékok lapos világa. A 3D-s világban az AI-nak világos feladatai vannak, amelyek egymás után változnak oly módon, hogy az egyes korábbi feladatok megoldásában szerzett tapasztalatok hasznosnak bizonyulnak az AI számára a következő megoldása során.

A 3D-s környezet előnye, hogy segítségével számítógépes rendszereket lehet tanítani arra, hogy reagáljanak különféle problémákra, amelyekre egy robot a való világban számíthat. Egy ilyen szimulátor segítségével az ipari robotokat gond nélkül képezik ki. A virtuális környezettel való munkavégzés pedig szokatlanul egyszerűbb bizonyos esetekben, mint az ilyen rendszerek „kézi” betanítása.

Ugyanakkor a legtöbb modern neurális hálózatot egy konkrét probléma (például képfeldolgozás) megoldására fejlesztették ki. Az új platform fejlesztői azt ígérik, hogy segít létrehozni egy univerzális mesterséges intelligencia formát, amely számos feladat megoldására képes. Ezenkívül ebben az esetben a számítógépes rendszernek nem lesz szüksége az emberek segítségére. A neurális hálózat környezetének generálása minden alkalommal véletlenszerű sorrendben történik.


A platform fejlesztői szerint nagyjából ugyanúgy segíti az AI tanulását, ahogy a gyerekek. „Hogyan fedeztük fel te vagy én a világot gyerekként” – mutatott be egy példát a DeepMind egyik alkalmazottja. „A gépi tanulási közösség mindig is nagyon nyitott volt. Évente körülbelül 100 cikket teszünk közzé, és számos projektünket megnyitjuk a forráskóddal."

Most a Google DeepMind megnyitotta a DeepMind Lab forráskódját, és közzétette a GitHubon. Ennek köszönhetően bárki letöltheti a platformkódot és igény szerint módosíthatja. A projekt képviselői azt mondják, hogy a kapcsolódó szakemberek saját maguk is létrehozhatnak új játékszinteket, ha feltöltik saját projekteiket a GitHubra. Ez segítheti az egész közösséget abban, hogy gyorsabban és hatékonyabban dolgozzon a célja felé.

Nem ez az egyetlen projekt a DeepMind számára. A múlt hónapban képviselői együttműködési megállapodást kötöttek az Activision Blizzard Inc.-vel. A cél a Starcraft 2 környezete a mesterséges intelligencia tesztterületén. Talán hamarosan más játékfejlesztők is csatlakoznak ehhez a projekthez. Egyébként a játékkörnyezetben a mesterséges intelligencia nem szerez semmilyen előnyt az ellenséggel szemben, csak előrelépésre használja, mint egy ember.

A gyakorlatban ez azt jelenti, hogy a Google AI-nak meg kell jósolnia, hogy az ellenség mit csinál egy adott időpontban, hogy megfelelően reagálhasson az „ellenség” cselekedeteire. Ezenkívül gyorsan reagálni kell arra, ami a tervből eredt. Mindez a mesterséges intelligencia képességeinek következő szintjét fogja tesztelni. „Végső soron ezeket a képességeinket globális problémák megoldására szeretnénk alkalmazni” – mondta Demis Hassabis, a Deepmind alapítója (amelyet 2014-ben vásárolt meg a Google, és jelenleg a felvásárolt vállalat eredményei alapján fejlesztik az AI-t).

Az AI-szakértők óvatosan jóváhagyják a projektet. „Az a jó, hogy nagyszámú környezettípust biztosítanak” – mondta Ilya Sutskevar, az OpenAI társalapítója. "Minél több környezettel találkozik egy rendszer, annál gyorsabban fog fejlődni" - folytatta. Valójában a 3D AI tanulási környezet több mint 1000 szintet és környezettípust tartalmaz.

Zoubin Gahrahmani, a cambridge-i professzor úgy véli, hogy a DeepMind Lab és más, a mesterséges intelligencia fejlesztését elősegítő platformok előrelépést tesznek lehetővé azáltal, hogy lehetővé teszik a kutatók számára a kifejlesztett környezet elérését. Azonban a projektek, mint a

Részvény