9

Basta chiedersi, dal momento che abbiamo raggiunto 1 teraflop per PC, ma non siamo ancora in grado di modellare il cervello di un insetto. Qualcuno ha visto una decente implementazione di una rete neurale autoapprendente e autosviluppante?Modellazione del cervello

+0

Dove hai sentito che i PC hanno raggiunto un teraflop? Il processore PC più veloce che conosca è di 70 gigaflop ... e se intendevi i supercomputer, beh quelli che hanno sfondato il petaflops l'anno scorso. – DeadHead

+0

scusate, lo ricordo con la GPU inclusa. La GPU abilitata CUDA è in grado di eseguire un algoritmo di propagazione della rete neurale in modo molto efficiente. Non sono sicuro dell'apprendimento e dell'adattamento del peso del nodo - questo shold probabilmente sarà gestito dalla CPU principale. – Andy

+2

Penso che sia meno una questione di dimensioni/velocità di una rete neurale, ma una questione se le complessità extra della cognizione e dell'apprendimento nel cervello possano essere modellate usando quelle tecniche. Forse qualche incontro di reti neurali/percetroni e automi cellulari? –

risposta

9

Ho visto un interessante esperimento di mappatura del layout neurale fisico del cervello di un ratto in una rete neurale digitale con una ponderazione modellata sulla chimica dei neuroni di ciascun componente presa utilizzando la risonanza magnetica e altri. Abbastanza interessante. (New Scientist o Fuoco, 2 numeri fa?)

IBM Blue Brain viene in mente http://news.bbc.co.uk/1/hi/sci/tech/8012496.stm

Il problema è potenza di calcolo come lei ha giustamente sottolineate. Ma per una sequenza di stimoli a una rete neurale la gamma di calcoli tende ad essere esponenziale poiché tali stimoli incontrano nodi nidificati più profondi. Qualsiasi algoritmo di ponderazione complesso significa che il tempo trascorso su ciascun nodo può diventare costoso. Le mappe neurali specifiche del dominio tendono ad essere più veloci perché sono specializzate. I cervelli nei mammiferi hanno molti percorsi generali, rendendo più difficile insegnarli e per un computer modellare un vero cervello di mammifero in un dato spazio/tempo.

I veri cervelli hanno anche tonnellate di cross-talk come statico (alcune persone pensano che sia qui da dove nasce la creatività o il pensiero originale). Anche i cervelli non imparano usando lo stimolo/ricompensa "diretto" ... usano l'esperienza passata di materia non correlata per creare il proprio apprendimento. Ricreare i neuroni è una cosa in uno spazio computazionale, creare un apprendimento accurato è un altro. Non importa la dopamina (l'octopamina negli insetti) e altre sostanze chimiche neurologiche.

immaginare di dare un LSD digitale al cervello o antidepressivi. Come una vera simulazione. Eccezionale. Questa sarebbe una simulazione complessa che sospetto.

+1

Ancora più complessità: quando il cervello umano è completamente sviluppato, * ogni singolo neurone è un'entità distinta *, geneticamente e funzionalmente. ~ 20 anni di esposizione asincrona al mutageno e ai neurotrasmettitori, così come differenze di sviluppo e comportamenti di plasticità (alcuni neuroni che riempiono vuoti di percorso come il nastro di alluminio nel nocciolo di un reattore) tra le singole cellule, fanno un modello canonico di un cervello umano un costrutto nebuloso, se non uno inutile. E questo prima di affrontare la questione della simulazione dei componenti meccanici quantistici scoperti di recente dei sistemi biologici ... – manglano

7

Penso che si stia ipotizzando che la nostra idea di come funzionano le reti neurali è un buon modello per il cervello su larga scala; Non sono sicuro che sia una buona ipotesi. L'inferno, non troppi anni fa, non pensavamo che le cellule gliali fossero importanti per le funzioni mentali, ed è stata l'idea per molto tempo che non ci sia neurogenesi dopo la maturazione del cervello.

D'altro canto, le reti neurali sembrano gestire piuttosto bene alcune funzioni apparentemente complesse.

Quindi, ecco una piccola domanda del puzzle per te: quanti teraflop o petaflops pensi che il calcolo del cervello umano rappresenti?

+0

Più di quanto abbiamo. Abbiamo più possibilità di far crescere un cervello umano e dargli input/output digitali. Forse overcloccalo o specializzalo un po '. Calcolo guidato dall'emozione mediante stimoli chimici artificiali. Potrebbe invocare recettori del dolore su previsioni sbagliate. –

+5

@Aiden: Spero davvero che tu non abbia figli. :-) –

+0

:) se il cervello ha un problema con esso, inserirò i miei neuro-lead e avrò un doppio virtuale con i nostri corpi virtuali. A meno che non sia femmina. Quindi è diverso. –

2

Yup: OpenCog ci sta lavorando.

+0

Non è davvero ... implementato ancora e non sarà per un po '... – DeadHead

5

Jeff Hawkins direbbero che una rete neurale è un povero approssimazione di un cervello. La sua "On Intelligence" è una lettura eccezionale.

+1

Sì! Si consiglia di controllare www.numemta.com e il loro software NuPIC. Questo è basato sulla tecnologia della memoria temporale gerarchica, basata sui concetti sviluppati da Jeff Hawkins in questo libro. – mjv

1

È la struttura. Anche se oggi avessimo computer con prestazioni uguali o superiori a quelle di un cervello umano (ci sono diverse previsioni quando arriveremo, ma mancano ancora alcuni anni), dobbiamo ancora programmarlo. E mentre oggi conosciamo molto cervello, ci sono ancora molte, molte altre cose che non conosciamo. E questi non sono solo dettagli, ma grandi aree che non sono affatto capite.

Concentrarsi solo su Tera-/Peta-FLOPS è come guardare solo i megapixel con le fotocamere digitali: si concentra su un solo valore quando ci sono molti fattori coinvolti (e ce ne sono alcuni di più in un cervello che in una fotocamera). Credo anche che molte delle stime su quanti FLOPS sarebbero necessari per simulare un cervello sono lontane - ma questa è una discussione completamente diversa.

+0

Robert, questo è esattamente quello che mi viene in mente dalla domanda iniziale: la potenza di elaborazione è in qualche modo lì, ma ci rendiamo conto che non c'è assolutamente alcuna comprensione su come usarlo per alimentare un semplice processo di apprendimento. (un'idea per una startup? :-) – Andy

+0

Potresti essere in grado di valutare il potenziale di una startup se sei un esperto di intelligenza artificiale. Queste cose sono di solito le spinout universitarie. –

2

Solo chiedendo, abbiamo raggiunto 1 teraflop per PC e non siamo ancora in grado di modellare il cervello di un insetto. qualcuno ha visto una decente implementazione di una rete neurale auto-apprendimento auto-apprendimento?

Possiamo già modellare il cervello. La domanda in questi giorni è la velocità e la precisione.

All'inizio, si cercava di trovare la rappresentazione più astratta dei neuroni con la minima quantità di proprietà fisiche necessarie.

Questo ha portato all'invenzione della perceptron presso la Cornell University, che è un modello davvero semplice. In realtà, potrebbe essere stato troppo semplice, come il famoso professore del MIT AI, Marvin Minsky, ha scritto un documento che erroneamente ha concluso che sarebbe impossibile per questo tipo di modello apprendere XOR (un cancello logico di base che potrebbe essere emulato da ogni computer che abbiamo oggi). Sfortunatamente, il suo lavoro ha immerso la ricerca sulla rete neuronale nelle epoche buie per almeno 10 anni.

Anche se probabilmente non è così impressionante come molti vorrebbero, esistono reti di apprendimento già esistenti in grado di eseguire l'apprendimento e il riconoscimento visivi e vocali.

E anche se abbiamo CPU più veloci, non è ancora lo stesso di un neurone. I neuroni nel nostro cervello sono, come minimo, unità di sommersione parallele. Immaginate quindi 100 miliardi di neuroni umani simulati, aggiungendo ogni secondo, inviando le loro uscite a 100 trilioni di connessioni con un "clock" di circa 20 hz. La quantità di calcolo che va avanti supera di gran lunga i petaflop della potenza di elaborazione che abbiamo, specialmente quando i nostri cpus sono per lo più seriali anziché paralleli.

+2

È per questo motivo che penso che gli FPGA siano più adatti alla simulazione di un cervello rispetto a una CPU tradizionale – Earlz

0

C'è un worm di nome C. Elegance e la sua anatomia è completamente a nostra conoscenza. Ogni cellula è mappata e ogni neurone è ben studiato. Questo verme ha una proprietà interessante per nascita e cioè segue o cresce solo verso quelle regioni di temperatura in cui è nato. Here is link to the paper. Questo documento ha l'implementazione della proprietà con modello neuronale. E ci sono alcuni studenti che hanno costruito un robot che segue solo le regioni oscure della regione con diverse sfumature di luce, usando questo modello neuronale. Questo lavoro avrebbe potuto essere fatto usando anche altri metodi, ma questo metodo è più resiliente al rumore, come dimostrato dalla carta a cui ho dato il link sopra.