DeepMind ha aperto l'accesso gratuito a un ambiente di machine learning virtuale. Google ha testato l'intelligenza artificiale di DeepMind nelle condizioni del "dilemma del prigioniero" Informazioni per la riflessione

Google acquista la società di intelligenza artificiale con sede a Londra DeepMind. Fonti chiamano l'importo della transazione in oltre 500 milioni di dollari. L'acquisto è ufficialmente confermato dai rappresentanti di Google.


Cosa darà Google questa acquisizione? In primo luogo, le consentirà di competere con altre grandi aziende tecnologiche, grazie alla sua attenzione al deep learning. Facebook, ad esempio, ha recentemente assunto il professor Yann LeKanna per guidare il proprio sviluppo dell'intelligenza artificiale. Il supercomputer Watson di IBM è attualmente focalizzato specificamente sul deep learning e Yahoo ha recentemente acquisito LookFlow, una startup di analisi delle foto, che sta facendo progressi anche in questa materia.

DeepMind è stata fondata dal neuroscienziato Demis Hassabis, dall'ex prodigio degli scacchi, dallo sviluppatore di Skype e Kazaa Jaan Tallinn e dal ricercatore Shane Legg.

La mossa di Google consentirà al team del gigante tecnologico di riempire il proprio campo di esperti di intelligenza artificiale e l'acquisizione è stata supervisionata personalmente dal CEO di Google Larry Page, affermano le fonti. Se tutti e tre i fondatori lavoreranno per Google, si uniranno all'inventore, imprenditore, autore e futurista Ray Kurzweil, che nel 2012 è diventato CTO della divisione di apprendimento automatico ed elaborazione linguistica di Google.

Kurzweil ha dichiarato di voler costruire un motore di ricerca così perfetto da poter diventare un vero "amico cibernetico".

Dall'acquisizione di Nest all'inizio di questo mese, i critici hanno sollevato preoccupazioni sulla quantità di dati degli utenti che verranno inviati a Google. L'acquisto di Boston Dynamics il mese scorso ha anche portato al dibattito sul fatto che Google intende diventare un produttore di robot.

Tuttavia, Google è ben preparato a dissipare i nostri timori sulle sue ultime acquisizioni. Fonti affermano che Google ha deciso di istituire un consiglio etico che supervisionerà lo sviluppo dell'intelligenza artificiale all'interno di DeepMind.

Tuttavia, l'azienda dovrà chiarire cosa fa esattamente l'intelligenza artificiale di DeepMind. Il sito Web dell'azienda ha attualmente una pagina di destinazione con una descrizione relativamente vaga che afferma che DeepMind è "un'azienda all'avanguardia" e sta costruendo gli algoritmi del futuro per simulazioni, e-commerce e giochi. A dicembre, la startup conta 75 dipendenti.

I principali sponsor della startup sono Founders Fund e Horizons Ventures. DeepMind è stata fondata tre anni fa.

Nel 2012, Larry Wasserman, professore del Carnegie Mellon Institute, scrisse che “una startup costruirà un sistema che pensa. Ho pensato che fosse pura follia finché non ho scoperto quanti famosi miliardari avevano investito nell'azienda".

Attualmente, molte aziende sono impegnate nello sviluppo dell'intelligenza artificiale (AI). Sono già state create le sue forme più semplici, capaci di compiere operazioni mentali primitive.

Gigante di Internet Google attivamente impegnato nello sviluppo dell'IA. Nel 2014 questa società ha acquisito una start-up profondoMentetecnologie per $ 400 milioni È interessante notare che è stata Deep Mind Technologies a sviluppare un dispositivo che combina le proprietà di una rete neurale e le capacità di calcolo di un computer. Gli scienziati sono fiduciosi che questo sviluppo avvicinerà l'umanità alla creazione di un'intelligenza artificiale a tutti gli effetti.

Il dispositivo Deep Mind Technologies è un computer che riproduce il modo in cui il cervello umano immagazzina e gestisce le informazioni, ovvero il dipartimento della memoria a breve termine. La base del dispositivo è una sorta di rete neurale, la cui struttura è simile alla struttura del cervello umano, costituita da neuroni interconnessi. La particolarità dell'IA è che dopo aver completato una serie di compiti semplici, il computer può utilizzare i dati memorizzati per eseguire quelli più complessi. Pertanto, l'IA ha la proprietà dell'autoapprendimento e il desiderio di evoluzione, che alla fine può portare al confronto tra l'IA e gli esseri umani.

Secondo il fisico di fama mondiale Stephen Hawking, l'intelligenza artificiale rappresenta una minaccia per l'umanità. Lo ha affermato in un'intervista alla BBC: “Le forme primitive di intelligenza artificiale che esistono oggi hanno dimostrato la loro utilità. Tuttavia, penso che lo sviluppo di un'intelligenza artificiale a tutti gli effetti possa porre fine a razza umana. Prima o poi, l'uomo creerà una macchina che perderà il controllo e supererà il suo creatore. Una tale mente prenderà l'iniziativa e migliorerà se stessa a un ritmo sempre crescente. Le possibilità delle persone sono limitate da un'evoluzione troppo lenta, non potremo competere con la velocità delle macchine e perderemo.

L'opinione di Hawking è condivisa anche da altri scienziati e specialisti, tra cui Elon Musk, un noto imprenditore IT americano e creatore di Tesla e Space X. Musk ha affermato che l'IA può essere più pericolosa delle armi nucleari e rappresenta una seria minaccia per l'esistenza dell'umanità.

Google si è posta l'obiettivo di creare una superintelligenza entro il 2030. Questa superintelligenza sarà incorporata in un sistema informatico, in particolare in Internet. Nel momento in cui l'utente cerca informazioni, la superintelligenza analizzerà lo psicotipo di questa persona e gli fornirà le informazioni che ritiene appropriate. Eric Schmidt, presidente del consiglio di amministrazione di Google, ne parla nel suo libro. E coloro che rifiutano di collegarsi a questo sistema, propone di considerare come soggetti potenzialmente pericolosi per lo Stato. Si presume che per l'attuazione del funzionamento di tale sistema, a il quadro normativo a livello statale.

Pertanto, la superintelligenza sviluppata diventerà uno strumento globale di controllo sull'umanità. Con l'avvento della superintelligenza, una persona smetterà di fare scienza, questo sarà fatto dalla superintelligenza, che sarà molte volte superiore al cervello umano in tutti gli aspetti della sua manifestazione.

Riferimento:

Sovramenteè qualsiasi intelligenza sostanzialmente superiore alle menti principali dell'umanità in quasi tutte le aree, comprese le varie Ricerca scientifica, abilità sociali e altre aree.

Il risultato della creazione di una superintelligenza sarà che la specie umana cesserà di essere la forma di vita più intelligente nella parte dell'universo a noi nota. Alcuni ricercatori ritengono che la creazione di una superintelligenza sia l'ultimo stadio dell'evoluzione umana, nonché l'ultima invenzione che l'umanità dovrà realizzare. Perché si presume che le supermenti saranno in grado di occuparsi autonomamente del successivo progresso scientifico e tecnologico molto più efficiente degli umani.

Informazioni per riflettere:

Dal 2007, un hotel britannico ospita la conferenza annuale di Google Zeitgeist. È interessante notare che a questo incontro partecipano non solo specialisti in alta tecnologia e rappresentanti di società transnazionali e banche internazionali. Si può concludere che i leader delle società transcontinentali e delle banche internazionali sono interessati a creare una superintelligence e possibilmente a finanziare questo progetto.

Rasul Girayalaev

I ricercatori di Google Deepmind hanno svelato un nuovo tipo di sistema di intelligenza artificiale, il cosiddetto Differentiable Neural Computer, DNC. Il sistema combina l'apprendimento delle reti neurali con le capacità deduttive dell'IA tradizionale. La sua descrizione è stata pubblicata sulla rivista Natura, nuovo lavoro dedicato nello stesso numero della rivista, breve rivisitazione il lavoro può essere letto sul blog di Deepmind.

Le reti neurali più semplici sono un sistema di previsione, regressione, il cui compito è abbinare i dati di input a una determinata risposta. Ad esempio, una semplice rete neurale può riconoscere i personaggi in base alle loro immagini. In questo senso, la rete neurale può essere considerata una funzione matematica e una funzione differenziabile. Addestrare una rete neurale in un tale paradigma significa ottimizzare questa funzione utilizzando metodi matematici standard (è possibile leggere una spiegazione accessibile di come avviene l'addestramento).

La capacità di apprendere dai dati senza una programmazione umana diretta è il principale vantaggio delle reti neurali. Tuttavia, le reti neurali più semplici non sono complete di Turing, cioè non possono farlo tutto cose di cui sono capaci i programmi algoritmici tradizionali (il che, tuttavia, non significa che non possano fare alcuni di queste cose sono migliori dei programmi). Uno dei motivi è la mancanza di memoria nelle reti neurali, con la quale è possibile operare con i dati di input e memorizzare variabili locali.

Relativamente di recente è apparso un tipo più complesso di reti neurali, in cui questo inconveniente è stato eliminato: le cosiddette reti neurali ricorrenti. Non solo memorizzano informazioni sullo stato di apprendimento (una matrice di pesi dei neuroni), ma anche informazioni sullo stato precedente dei neuroni stessi. Di conseguenza, la risposta di tale rete neurale è influenzata non solo dai dati di input e dalla matrice di peso, ma anche dalla sua storia immediata. La rete neurale più semplice di questo tipo può, ad esempio, prevedere "intelligentemente" il carattere successivo nel testo: addestrando la rete neurale sui dati del dizionario, sarà possibile ottenere la risposta "l" per il carattere "l" se i caratteri precedenti erano “h”, “e” e “l”, ma una risposta diversa è “o”, se i precedenti erano “h”, “e”, “l” e ancora “l” (la parola “ ciao" risulterà, vedi riquadro).

Un esempio di rete neurale ricorrente con un livello nascosto. Puoi vedere come il feed di dati cambia lo stato della rete. I pesi allenati dei neuroni sono memorizzati nelle matrici W_xh, W_hy e in una matrice speciale W_hh, tipica solo per le reti ricorrenti.

Blog di Andrej Karpatia

Le reti neurali ricorrenti si sono mostrate molto bene nel generare musica o testo "nello stile" di qualche autore, sul cui corpus è avvenuta la formazione, in * e, recentemente, in sistemi e così via (ad esempio).

Formalmente, anche le reti neurali ricorrenti più semplici sono complete di Turing, ma il loro importante svantaggio risiede nella natura implicita dell'utilizzo della memoria. Se nella macchina di Turing la memoria e il calcolatore sono separati (che permette di cambiarne l'architettura in diversi modi), allora nelle reti neurali ricorrenti, anche nelle più avanzate (LSTM), la dimensione e la natura della gestione della memoria è determinato dall'architettura della rete neurale stessa.

Per correggere questo difetto intrinseco delle reti LSTM, gli scienziati di DeepMind (che fanno tutti parte del team di autori del nuovo articolo) hanno recentemente proposto l'architettura delle cosiddette Neural Turing Machines (Neural Turing Machines). In esso, la calcolatrice e la memoria sono separate, come nelle normali macchine di Turing, ma allo stesso tempo il sistema conserva le proprietà di una funzione derivabile, il che significa che può essere addestrato da esempi (usando il metodo della backpropagation) piuttosto che esplicitamente programmato. Il nuovo sistema, un computer neurale differenziabile, o DNC, si basa sulla stessa architettura, ma la comunicazione tra calcolatrice e memoria è organizzata in modo molto più flessibile: implementa i concetti non solo di memorizzazione, ma anche riconoscimento contestuale e oblio (una sezione a parte è dedicata al confronto tra i due sistemi) nuovo articolo).

Semplicisticamente, il lavoro di DNC può essere rappresentato come segue. Il sistema è costituito da una calcolatrice, che può essere riprodotta da quasi tutte le reti neurali ricorrenti, e da una memoria. La calcolatrice ha moduli speciali per l'accesso alla memoria e sopra la memoria c'è uno speciale "add-on" sotto forma di matrice che memorizza la cronologia del suo utilizzo (maggiori dettagli di seguito). La memoria è una matrice N×M, dove N i righe sono le celle principali in cui vengono scritti i dati (sotto forma di vettori di dimensione M).


Architettura DNC: le linee di dati sono mostrate come linee con quadrati bianchi e neri - rappresentano semplicemente numeri positivi e negativi nel vettore. Si può vedere che la lettura ha tre moduli di lavoro C, B e F, cioè associativo, diretto e inverso: questi sono modi per confrontare il vettore di input con il vettore nella cella di memoria. La memoria è N×M. Quello più a destra mostra schematicamente una matrice di "meta-memoria" N × N che memorizza la sequenza di accesso alla memoria.

La principale differenza tra DNC e sistemi correlati è la natura della gestione della memoria. Implementa contemporaneamente diversi concetti nuovi o emergenti: attenzione selettiva, ricerca contestuale, richiamo per associazione e oblio. Ad esempio, se i normali computer accedono alla memoria in modo esplicito ("scrivere dati tali e tali in una cella tale e tale"), in DNC, formalmente parlando, la scrittura avviene in tutte le celle contemporaneamente, tuttavia, il grado di influenza dei nuovi dati su quelli vecchi è determinato dal peso dell'attenzione alle diverse cellule. Tale implementazione del concetto è chiamata "attenzione morbida", ed è proprio questo che garantisce la differenziabilità: i sistemi con attenzione dura non soddisfano il requisito della continuità della funzione e non possono essere addestrati utilizzando il metodo della backpropagation (viene utilizzato l'apprendimento per rinforzo). Tuttavia, anche l'"attenzione morbida" nel sistema DNC è implementata in pratica "piuttosto difficile", quindi si può ancora parlare di scrivere o leggere da una determinata riga della matrice di memoria.

"Attenzione morbida" è implementata nel sistema in tre modalità. Il primo è la ricerca contestuale, che consente al DNC di completare i dati incompleti. Ad esempio, quando l'input della calcolatrice è un pezzo di una sequenza che assomiglia a quella già memorizzata, l'operatore di lettura con attenzione nella modalità di ricerca del contesto trova la stringa più vicina nella composizione e la "mescola" con i dati di input .

In secondo luogo, l'attenzione a parti differenti la memoria può essere determinata dalla sua cronologia di utilizzo. Questa cronologia è memorizzata in una matrice N×N, dove ogni cella N(i,j) corrisponde a un punteggio vicino a 1 se la voce nella riga i è stata seguita da una voce nella riga j (o zero in caso contrario). Questa "matrice di meta-memoria" è una delle differenze fondamentali tra il nuovo sistema DNC e il vecchio NTM. Consente al sistema di "ricordare" in sequenza blocchi di dati se si verificano frequentemente nel contesto reciproco.

In terzo luogo, una speciale modalità di attenzione consente al sistema di controllare la scrittura su diverse linee di memoria: memorizzare l'importante e cancellare ciò che non è importante. Una riga è considerata più completa di Di più una volta era stato scritto, ma la lettura da una riga può, al contrario, portare alla sua cancellazione graduale. L'utilità di tale funzione risulta essere ovvia nell'esempio dell'allenamento basato sul DNC di un semplice ripetitore (la rete neurale deve riprodurre accuratamente la sequenza di dati che le è stata alimentata). Per tale compito, con la possibilità di cancellare, è sufficiente anche una piccola quantità di memoria per ripetere un numero illimitato di dati. Va notato qui che è molto facile implementare un ripetitore in modo programmatico, ma farlo sulla base di una rete neurale, a causa dell'apprendimento per rinforzo, è un compito molto più difficile.


Schema di funzionamento di un ripetitore implementato sulla base di DNC. Il tempo sul diagramma va da sinistra a destra. La parte superiore mostra i dati che il controller riceve in ingresso: prima una colonna di dieci barre nere (tutti zeri), poi diverse bianche e nere, poi ancora diverse bianche e nere, ma in una sequenza diversa. Di seguito, dove l'uscita dal controller viene visualizzata allo stesso modo, vediamo prima delle barre nere, e poi una riproduzione quasi esatta della sequenza dei pattern (la stessa macchia bianca dell'ingresso). Quindi una nuova sequenza viene inserita nell'ingresso - con un ritardo, viene riprodotta di nuovo all'uscita. Il grafico centrale mostra cosa succede in questo momento con le celle di memoria. Quadrati verdi - scrittura, rosa - lettura. La saturazione mostra il "potere dell'attenzione" su questa particolare cellula. Si può vedere come il sistema scriva prima i pattern ricevuti nella cella 0, poi 1 e così via fino a 4. Al passaggio successivo, al sistema vengono nuovamente assegnati solo zeri (campo nero) e quindi interrompe la registrazione e inizia a riprodurre modelli, leggendoli dalle celle nella stessa sequenza, come sono arrivati ​​lì. In fondo è mostrata l'attivazione delle porte che controllano il rilascio della memoria.

Alex Graves et al., Natura, 2016

Gli scienziati hanno testato il sistema risultante in diverse attività di prova. Il primo di questi è stato il test di comprensione del testo standardizzato di recente sviluppo, bAbI, sviluppato dai ricercatori di Facebook. In esso, al sistema di intelligenza artificiale viene fornito un breve testo in cui agiscono alcuni eroi, quindi è necessario rispondere a una domanda secondo il testo ("John è andato in giardino, Mary ha preso una bottiglia di latte, John è tornato a casa .Domanda: Dov'è Giovanni?").

In questo test sintetico nuovo sistema dimostrato un record basso livello errori: 3,8 percento contro il 7,5 percento del record precedente - in questo ha bypassato sia le reti neurali LSTM che NTM. È interessante notare che, in questo caso, tutto ciò che il sistema riceveva in ingresso era una sequenza di parole che, per una rete neurale non addestrata, all'inizio non aveva alcun senso. Allo stesso tempo, i tradizionali sistemi di IA che hanno già superato questo test ricevevano in precedenza frasi ben formalizzate con una struttura rigida: azione, attore, verità, ecc. La rete neurale ricorrente con memoria dedicata è stata in grado di capire il ruolo delle parole nelle stesse frasi in modo completamente indipendente.

Un test significativamente più difficile è stato il test di comprensione del grafico. È stato implementato anche come sequenza di frasi, ma questa volta hanno descritto la struttura di una rete: una vera metropolitana di Londra o un tipico albero genealogico. La somiglianza con il test bAbI sta nel fatto che gli attori nel testo standardizzato possono essere rappresentati anche come nodi del grafo e le loro relazioni come archi. Allo stesso tempo, nei testi bAbI, il grafico risulta essere piuttosto primitivo, incomparabile con le dimensioni della metropolitana di Londra (la complessità della comprensione dello schema della metropolitana da parte di una rete neurale può essere meglio compresa se si ricorda che la sua descrizione è dato a parole e non sotto forma di immagine: prova a memorizzare tu stesso lo schema della metropolitana di qualsiasi grande città e impara a rispondere alle domande al riguardo).

Dopo essere stato addestrato su un milione di esempi, il computer DNC ha imparato a rispondere alle domande della metropolitana con una precisione del 98,8%, mentre il sistema basato su LSTM quasi non ha affrontato il compito: ha fornito solo il 37% di risposte corrette (i numeri sono indicati per il compito più semplice come "dove andrò a finire se passo tante stazioni lungo una tale linea, cambi posto lì e supero tante altre stazioni". Il problema della distanza più breve tra due stazioni si è rivelato più difficile, ma il Anche il DNC lo ha affrontato).

Un esperimento simile è stato condotto con un albero genealogico: al programma è stata assegnata una sequenza di frasi formali sui rapporti di parentela in una famiglia numerosa e ha dovuto rispondere a domande del tipo "chi è il cugino di secondo grado di Masha da parte di madre". Entrambi i problemi si riducono alla ricerca di un percorso su un grafo, che viene risolta semplicemente in modo tradizionale. Tuttavia, il valore del lavoro sta nel fatto che in questo caso la rete neurale ha trovato una soluzione del tutto indipendente, basata non su algoritmi noti dalla matematica, ma sulla base di esempi e di un sistema di rinforzo durante l'allenamento.

Grafico della velocità di risoluzione del problema SHRDLU da parte dei sistemi DNC (verde) e LSTM (blu).

Il terzo test è stato un test SHRDLU "classico" leggermente semplificato, in cui è necessario spostare alcuni oggetti virtuali nello spazio virtuale in base a uno specifico risultato finale che è necessario ottenere alla fine. Il sistema DNC ha ricevuto nuovamente una descrizione dello stato attuale dello spazio virtuale sotto forma di frasi formalizzate, quindi gli è stato assegnato un compito allo stesso modo e ha risposto con un testo coerente su come spostare gli oggetti. Come in altri test, DNC si è dimostrato significativamente più efficiente dei sistemi LSTM, come si vede chiaramente dai grafici del tasso di apprendimento.

A rischio di ripetere ancora una volta cose ovvie, non posso non sottolineare che l'apparente semplicità dei compiti su cui è stato testato DNC è davvero evidente. Nel senso che non riflette la complessità dei problemi reali che un sistema come DNC sarà in grado di gestire in futuro. Naturalmente, dal punto di vista degli algoritmi esistenti, il compito di trovare un modo in metropolitana è solo una sciocchezza: chiunque può scaricare un'applicazione sul proprio telefono in grado di farlo. Calcola anche il tempo con i trasferimenti e indica in quale auto è meglio sedersi. Ma dopotutto, tutti questi programmi sono stati finora creati da una persona e in DNC è "nato" da solo, nel processo di apprendimento dagli esempi.

In effetti, c'è una cosa molto importante che voglio dire sulla semplicità delle attività di test. Una delle maggiori sfide dell'apprendimento automatico è dove ottenere i dati su cui addestrare il sistema. Ricevi questi dati "a mano", cioè crea tu stesso o con l'aiuto di persone assunte, troppo costoso. Qualsiasi progetto di apprendimento di matematica ha bisogno di un semplice algoritmo in grado di creare facilmente ed economicamente gigabyte di nuovi dati per l'allenamento (beh, o devi accedere a database già pronti). Un classico esempio: per testare i sistemi di riconoscimento dei caratteri, le persone non scrivono lettere nuove e nuove con le mani, ma utilizzano un semplice programma che distorce le immagini esistenti. Se non si dispone di un buon algoritmo per ottenere un campione di addestramento (o, ad esempio, un tale algoritmo non può essere creato in linea di principio), il successo nello sviluppo sarà più o meno lo stesso di quello della bioinformatica medica, che è costretta a lavorare solo con quelli veri e quindi dati veramente "oro" (in poche parole: poco riusciti).

È stato qui che gli autori dell'articolo sono tornati utili con algoritmi già pronti per risolvere i problemi su un grafico, solo per ottenere milioni di coppie corrette di domande e risposte. Non c'è dubbio che la facilità di creare un campione di addestramento abbia determinato la natura dei test che hanno testato il nuovo sistema. Tuttavia, è importante ricordare che l'architettura DNC in sé non ha nulla a che fare con la semplicità di questi test. Dopotutto, anche le reti neurali ricorrenti più primitive possono non solo tradurre testi e descrivere immagini, ma anche scrivere o generare schizzi (a orecchio dell'autore, ovviamente). Cosa possiamo dire di sistemi così avanzati e davvero "intelligenti" come DNC.

Alexander Ershov

Sembra molto probabile che l'intelligenza artificiale (AI) sarà il presagio della prossima rivoluzione tecnologica. Se l'IA si sviluppa al punto da poter imparare, pensare e persino "sentire", il tutto senza alcun input umano, tutto ciò che sappiamo sul mondo cambierà quasi da un giorno all'altro. Arriverà l'era dell'intelligenza artificiale veramente intelligente.

mente profonda

Ecco perché siamo così interessati a tenere traccia delle principali pietre miliari nello sviluppo dell'IA che stanno avvenendo oggi, incluso lo sviluppo della rete neurale DeepMind di Google. Questa rete neurale è già stata in grado di battere un essere umano nel mondo dei giochi e un nuovo studio di Google mostra che i creatori di DeepMind non sono ancora sicuri se l'IA preferisca comportamenti più aggressivi o cooperativi.

Il team di Google ha creato due scenari relativamente semplici che possono essere utilizzati per testare se le reti neurali possono lavorare insieme o se iniziano a distruggersi a vicenda quando incontrano una mancanza di risorse.

Raccogliere risorse

Durante la prima situazione, chiamata Gathering, a due versioni partecipanti di DeepMind - rossa e blu - è stato affidato il compito di raccogliere "mele" verdi all'interno di uno spazio chiuso. Ma i ricercatori erano interessati alla domanda non solo su chi sarà il primo a raggiungere il traguardo. Entrambe le versioni di DeepMind erano armate di laser che potevano usare per sparare al nemico in qualsiasi momento e disabilitarli temporaneamente. Queste condizioni implicavano due scenari principali: una versione di DeepMind avrebbe dovuto distruggere l'altra e raccogliere tutte le mele, oppure avrebbero consentito a vicenda di ottenere approssimativamente lo stesso numero.

Eseguendo la simulazione almeno un migliaio di volte, i ricercatori di Google hanno scoperto che DeepMind era molto pacifico e collaborativo quando c'erano molte mele lasciate in uno spazio chiuso. Ma quando le risorse diminuivano, la versione rossa o blu di DeepMind ha iniziato ad attaccarsi o a spegnersi a vicenda. Questa situazione ricorda in gran parte la vita reale della maggior parte degli animali, compreso l'uomo.

Ancora più importante, le reti neurali più piccole e meno "intelligenti" hanno favorito una maggiore collaborazione su tutto. Le reti più complesse e più grandi tendevano a favorire il tradimento e l'egoismo durante tutta la serie di esperimenti.

Cerca "vittima"

Nel secondo scenario, chiamato Wolfpack, alle versioni rossa e blu è stato chiesto di rintracciare una forma anonima di "vittima". Avrebbero potuto provare a catturarla separatamente, ma sarebbe stato più redditizio per loro provare a farlo insieme. Dopotutto, è molto più facile mettere all'angolo la vittima se lavori in coppia.

Sebbene i risultati fossero contrastanti per le catene più piccole, le versioni più grandi si resero presto conto che la collaborazione piuttosto che la concorrenza sarebbe stata più vantaggiosa in questa situazione.

"Il dilemma del prigioniero"

Allora cosa ci mostrano queste due semplici versioni del dilemma del prigioniero? DeepMind sa che è meglio cooperare se è necessario rintracciare un obiettivo, ma quando le risorse sono limitate, è il tradimento che funziona bene.

Forse la cosa peggiore di questi risultati è che gli "istinti" dell'intelligenza artificiale sono troppo simili a quelli umani e sappiamo bene a cosa portano a volte.

6 dicembre 2016 alle 00:41

DeepMind ha aperto l'accesso gratuito a un ambiente di machine learning virtuale

  • Scienza popolare,
  • Intelligenza artificiale ,
  • Giochi e console di gioco

Di recente, i rappresentanti della divisione DeepMind (ora parte della holding Alphabet) hanno annunciato la fornitura dell'accesso gratuito agli sviluppatori al codice sorgente della piattaforma DeepMind Lab. Questo è un servizio di machine learning basato su Quake III, progettato per addestrare l'intelligenza artificiale. Vale a dire, per imparare a risolvere i problemi in spazio tridimensionale senza intervento umano. La piattaforma è basata sul motore di gioco Quake III Arena.

All'interno del mondo di gioco, l'IA assume la forma di una sfera e la capacità di volare, studiando lo spazio circostante. L'obiettivo fissato dagli sviluppatori è insegnare forma debole L'IA "capisce" cosa sta succedendo e risponde alle varie situazioni che si verificano nel mondo virtuale. "Personaggio" può eseguire una serie di azioni, muoversi nel labirinto, esplorare l'ambiente circostante.

"Stiamo cercando di sviluppare varie forme di intelligenza artificiale in grado di svolgere una serie di compiti, dalla semplice esplorazione del mondo di gioco all'esecuzione di qualsiasi azione con un'analisi delle loro conseguenze", afferma Shane Legg, capo Ricercatore mente profonda.

Gli esperti sperano che l'IA sarà in grado di apprendere per tentativi ed errori. I giochi in questo caso sono quasi opzione perfetta. Ad esempio, DeepMind utilizzava in precedenza (e sta utilizzando ora) la console di gioco Atari per insegnare alla rete neurale a eseguire le azioni sequenziali necessarie per il gioco.

Ma un mondo 3D aperto e modificabile presenta un ambiente molto più promettente per l'apprendimento dell'IA rispetto a mondo piatto giocattoli graficamente semplici per Atari. L'IA nel mondo 3D ha compiti chiari che cambiano in sequenza in modo tale che l'esperienza maturata nel risolvere ogni compito precedente si riveli utile per l'IA nel corso della risoluzione di quello successivo.

Il vantaggio dell'ambiente 3D è che può essere utilizzato per addestrare i sistemi informatici a rispondere a vari problemi che un robot può aspettarsi nel mondo reale. Con l'aiuto di un tale simulatore, i robot industriali vengono addestrati senza problemi. E lavorare con un ambiente virtuale in alcuni casi è insolitamente più facile che addestrare tali sistemi "manualmente".

Allo stesso tempo, la maggior parte delle moderne reti neurali sono sviluppate per risolvere un problema specifico (elaborazione di immagini, ad esempio). Gli sviluppatori della nuova piattaforma promettono che aiuterà a creare una forma universale di intelligenza artificiale in grado di risolvere un gran numero di compiti. Inoltre, in questo caso, il sistema informatico non avrà bisogno dell'aiuto delle persone. La generazione dell'ambiente per la rete neurale avviene ogni volta in ordine casuale.


Secondo gli sviluppatori della piattaforma, l'apprendimento dell'IA aiuta più o meno allo stesso modo in cui imparano i bambini. "In che modo tu o io abbiamo esplorato il mondo da bambino", ha fornito un esempio un dipendente di DeepMind. “La comunità di machine learning è sempre stata molto aperta. Pubblichiamo circa 100 articoli all'anno e diamo open source molti dei nostri progetti".

Ora Google DeepMind ha aperto il codice sorgente di DeepMind Lab, pubblicato su GitHub. Grazie a ciò, chiunque può scaricare il codice della piattaforma e modificarlo in base alle proprie esigenze. I rappresentanti del progetto affermano che gli specialisti connessi possono creare nuovi livelli di gioco da soli caricando i propri progetti su GitHub. Questo può aiutare l'intera comunità a lavorare verso il proprio obiettivo in modo più rapido ed efficiente.

Questo progetto non è l'unico per DeepMind. Il mese scorso, i suoi rappresentanti hanno stipulato un accordo di cooperazione con Activision Blizzard Inc. L'obiettivo è l'ambiente di Starcraft 2 nel banco di prova per l'intelligenza artificiale. Forse altri sviluppatori di giochi si uniranno presto a questo progetto. A proposito, l'IA nell'ambiente di gioco non ottiene alcun vantaggio sul nemico, usando solo per l'avanzamento, come una persona.

In pratica, ciò significa che l'IA di Google dovrà prevedere cosa sta facendo il nemico in un dato momento per rispondere adeguatamente alle azioni del "nemico". Inoltre, sarà necessario rispondere rapidamente a ciò che è andato fuori piano. Tutto ciò metterà alla prova il livello successivo di capacità di intelligenza artificiale. "In definitiva, vogliamo applicare queste capacità per risolvere problemi globali", ha affermato Demis Hassabis, fondatore di Deepmind (che è stata acquistata da Google nel 2014 e ora l'IA viene sviluppata sulla base dei risultati dell'azienda acquisita).

Gli esperti di intelligenza artificiale stanno dando una cauta approvazione al progetto. "La cosa buona è che forniscono un gran numero di tipi di ambiente", ha affermato il co-fondatore di OpenAI Ilya Sutskevar. "Più ambienti incontra un sistema, più velocemente si evolverà", ha continuato. In effetti, l'ambiente di apprendimento 3D AI contiene oltre 1000 livelli e tipi di ambiente.

Zoubin Gahrahmani, professore a Cambridge, ritiene che il DeepMind Lab e altre piattaforme per migliorare lo sviluppo dell'intelligenza artificiale stiano guidando il progresso consentendo ai ricercatori di accedere all'ambiente sviluppato. Tuttavia, progetti come

Condividere