User Tools

Site Tools


gnd:ann

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
gnd:ann [2007/05/27 22:00]
gnd
gnd:ann [2007/05/28 02:20] (current)
Line 1: Line 1:
 ==== Uvod do Neuronovych Sieti ==== ==== Uvod do Neuronovych Sieti ====
  
-[[http://ii.fmph.uniba.sk/~farkas/Courses/NeuralNets/ns-otazky.pdf|Zadanie otazok]] +  * [[http://ii.fmph.uniba.sk/~farkas/Courses/NeuralNets/ns-otazky.pdf|Zadanie otazok]] 
-[[http://ii.fmph.uniba.sk/~farkas/Courses/ns.html|Farkasova Stranka]]+  [[http://ii.fmph.uniba.sk/~farkas/Courses/ns.html|Farkasova Stranka]] 
 +  * [[http://www.faqs.org/faqs/ai-faq/neural-nets/part1/preamble.html|Sarlov Neural Nets FAQ na USENETe]]
  
 +nedopracovane otazky su dosledok znizovania casoveho okna a zvysovania unavy.. nic moc overall.
  
  
-==== 18Hopfieldov model, stochasticka verzia ====+==== 9Principal Component Analysis ====
  
-Pracuje sa s terminom T "teplota" (teda vlastne entropia)Stavy sa mozu premenit na ine stavy na zaklade pravdepodobnostiNajprv sa urci pravdepodobnost zmeny na zaklade rovnic a potom sa zjavne hodi kockou+Vyratame si korelacnu maticu a pomocou nej ziskame hlavne vektory a hlavne komponenty pre dane datatoto mozem pouzit na dekorelaciu dat alebo redukciu dimenzie, alebo rekonstrukciu poskodenych dat, alebo kopresiuViacej napriklad tu: http://csnet.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf
  
-=== Rovnice === 
  
-{{gnd:hopfield_stocha.gif|}}+==== 10Self Organized Maps ====
  
-Dovysvetlenie: Spurious attractors su lokalne minima kde sa siet moze zastavit. Tieto stavy v stochastickom modeli vylucime tak ze do dat uvedieme sum (cez pravdepodobnostny pristup) +=== Učenie so súťažením ===
  
-==== 17Hopfieldov modelDeterministicka verzia ====+Vzor sa hodi sieti, a podla nejakeho kriteria sa vyberie najlepsie reagujuci neuronBud je to Euklidovska vzdialenost vzoru a vektoru vah daneho neuronu (ktora musi byt najmensia zo vsetkych)alebo je to velkost odozvy w^t * x. Co je vlastne to iste, ked si rozpiseme ako sa rata euklidovska vzdialenost. Sutazenie ma este jeden rozmer - medzi neuronmi existuju lateralne vazby. Neurony blizko vitazneho neuronu su excitovane, neurony kusok dalej zase inhibovane. Suvisi to s principmi samorganizacie - teda existencia lokalnych pozitivnych spatnych vazieb. Blablabla.. som is easy gonda is dead. 
  
-Hoppfieldov model bol popisany Johnom Hopfieldom aprili 1982Jedna sa o jedinu vrstvu kompletne poprepajanych neuronovVystupy jednotlivych neuronov su zapojene do vstupov ostatnych neuronovKazdy neuron ma aj externy vstupJedna sa o formu rekurentnej siete.\\+=== Et Cetera .. === 
 + 
 +**Neurobiologická motivácia algoritmu SOM, laterálna interakcia a jej náhrada SOM, sumarizácia algoritmu, voľba parametrov modelu, DP verzia algoritmu.** 
 + 
 +blablabla vieme..  
 + 
 + 
 + 
 + 
 +==== 11. Self Organized Maps ==== 
 + 
 +=== Vektorová kvantizácia=== 
 + 
 +**Learning vector Quantization** 
 + 
 +Pre data sa vyberie M prototypov - kedze ma byt M tried na klasifikaciuTieto prototypy su reprezentovane neuronmi a vahami ktore k nim zo vstupnych dat veduNainicializuju sa napriklad tak ze kazdemu neuronu sa nastavia vahy na nejaky vektor zo vstupnych datPotom sa robi normalne kompetitivne ucenie, kde sa vyberie nahodny vektor x z mnoziny vstupnych dat a hlada sa prototyp (neuron), ktory ma najbzlizsiu euklidovsku vzdialenost ku xTen ktory vyhra je potom updatnuty takto: \\
 \\ \\
-  * Neurony su binarne, stavy bud -1 a 1alebo 0 a 1, takto Hopfieldov model pripomina celularne automaty +w(new) = w(old) + m( x w(old) )kde m je pocet prototypov
-  * Neurony niesu napojene same na seba.  +\\ 
-  * Vahy medzi neuronmi su symetricke+Potom co su neurony natrenovane, sa moze siet pouzit na klasifikaciu dat. Ak je to dvojrozmerny priestor, tak prototypy definuju jadra Voronoivho diagramu. Very easy. Pouziva sa aj na kompresiu. (namiesto vektoru sa posiela kod prototypu kde patri - napriklad v telefonnej komunikacii)
  
-=== Pravidlo aktivacie ===+=== topografické zobrazenie príznakov ===
  
-{{gnd:hopfield_rule.png|}}+Kedze v SOM-ke vyhravaju s vitaznym neuronom aj jeho topologicky susedia, nastava zhromazdovanie podobnych klastrov vedla seba.
  
-=== Zmena stavu === +=== redukcia dimenzie ===
  
-Aktivacnou funkciou (naprsgn()) prezenieme net (pravidlo aktivacie) od ktoreho odcitame treshold.. +blabla.. ak mame 2d SOM tak data sa zredukuju do 2d priestoru
  
-=== Energia ===+=== magnifikačný faktor ===
  
-Hopfieldov system ma prisudenu energiuktora vyjadruje jeho stav vo fazovom priestore: +vela podobnych dat a malo inychked napriklad je narusena gausovsa distribucia vstupov, sposobi ze siet sa lepsie nauci rozoznavat tieto data ktore jej boli viacej prezentovane a vo vyslednej mape zaberaju vacsi priestor. "Som aproximuje hustotu rozlozenia vstupnych dat"
  
-{{gnd:hopfield_energy.png|}}+===  náčrt matematických problémov analýzy algoritmu ===
  
 +netusim.. 
  
-=== Princip ===+==== 12. Hybridne model NS: Radial Basis Functions ====
  
-Hopfieldov model je vlastne dynamicky systemEnergeticka rovnica popisuje fazovy priestorSiet ako autoasociativna pamat. Sieti sa ponukne utrzok dat a siet si ich po istej chvili konvergovania vo fazovom priestore cele zrekonstruuje. Funguje to tak ze zapamatane data predstavuju vo fazovom priestore globalne minima, a vlastne su to atraktory, ktore pritahuju tie ci one vzorky, ktore sa sieti poskytnu. Z napisaneho vyplyva ze aktivacna rovnica sluzi na minimalizaciu energie+Paradny popis principu fungovania RBF: http://www.statsoft.com/textbook/stneunet.html#radial\\ 
 +\\ 
 +=== Aktivacne vzorce ===
  
-  Synchronny model (vahy sa updatuju naraz +Siet pozostava z jednej skrytej vrstvy, ktora je zlozena z jednotiek, jadier, ktore interpretuju hypergule (preto **radialna** aktivacna funkcia). Iny sposob ako ich chapat je ze su to jadra gaussovskych distribucii. Vystupna vrstva moze byt len lienarnou kombinaciou vystupov skryteho layeru. (moze pretoze sa daju pouzivat aj nelinearne metody)
-  * Asynchronny model (vyberie sa nahodny neuron a vahy sa updatnu) +
-  * Hybridny model +
  
 +{{gnd:rbf_activ.gif|}}
  
 +=== Bazove funkcie ===
  
 +Tieto funkcie popisuju jadro + fallof hypergule, pricom klasifikacia vlastne znamena vzdialenost vzoru od jadra nejakej hypergule.
 +Gaussia, Cauchy, Multiquadrics, Quadrics:\\
  
 +{{gnd:rbf_basis.gif|}}
  
 +=== Priznakovy priestor ===
  
-==== 16RNS RTRL ====+Sa sklada z rozmiestnenych jadier RBF jednotiek, z ktorych kazde ma inu charakteristiku, a fallofBod v priznakovom priestore sa vyhodnoti z hladiska jeho vzdialenosti ku centram hyperguli, ktore su reprezentovane RBF jednotkami. Je dobre ked sa hypergule ciastocne prekryvaju, pretoze to zvysuje schopnost generalizacie, na druhej strane to ale znizuje schopnost klasifikacie. Pokial by sa neprekryvali, dochadza ku over-fittingu vstupnych dat a moze sa stat ze bod medzi dvoma hypergulami nebude spravne zaradeny.. 
  
-Real-Time Recurrent Learnig. Kompletne prepojena rekurentna neuronova siet. Uci sa modifikaciou backpropu, ktory funguje v case. Pouziva sa technika "Teacher forcing" kde sa niekedy vystupy nahradia idealnymi vystupmi. +=== Problem interpolacie === 
  
-=== Chyba & Vahy ===+Najst funkciu, ktora spravne interpoluje data. RBF to robia linearnou kombinaciou jednotiek h(i). Teda w^t*h(i) d(i), i 1,2...n. Ked isi to dame do matice, a zjednodusime, vyjde nam ze w H^-1 * d. Urobim ale inverznu maticu ku matici H je mozne len vtedy ak tato maitce je nesingularna. Michelliho teorem vravi, ze matica H, kde h(i,j) SIGMA(i,j)[||x(i) - x(j)||] je nesingularna. SIGMA(i,j) je prave nejaka radialna funkcia.
  
-{{gnd:rtrl.gif|}}+=== Aproximacne vlastnosti ===
  
-[[http://www.willamette.edu/~gorr/classes/cs449/rtrl.html|popis]]+Blablabla, tak ako v tom anglickom texteRBF sa fasa rychlo ucia oproti MLP, ale zase vyzaduju vacsi priestor, a je problem najst vhodne rozlozenie centier v priznakovom priestore
  
  
  
-==== 15. RNS - Back Propagation Through Time ==== 
  
-Rozsirenie feedforward sieti o casovu dimenziuPodobne ako TDNN. Do delay fronty sa ale uklada vystup neuronu v case x. Fronta ma opat dlzku n. Vstupom do input layeru je sekvencia dlzky n. Neuron v case x+1 dostane na vstupvystupy od neuronov v case xx+1 cast sekvenciea svoj vystup v case x. Vsetky tieto vstupy maju rovnake vahy.\\+==== 13Hybridne model NSRadial Basis FunctionsTRNDCS ====
  
-=== Trening ===  +=== RBF - sposoby trenovania vah ===
-Trenovanie sa deje po "prezuti" celej sekvencie. U poslednej casti sekvencie sa vypocita delta ako nasobok f(net) a e(i). U predoslych casti sekvencie sekvencie, napriklad t, sa rata nasobok f(net) * [e(i) + suma vahy * delty (t+1)]. Vyrata sa takisto celkova chyba ako 1/2 * suma cez cas sum cez chyby neuronov. Vaha sa updatne ako alfa * suma cez cas delta(i) v case t * x(t-1).\\ +
-Nevyhody podobne ako u TDNN - dlzka sekvencie je fixna. +
  
-[[http://www.willamette.edu/~gorr/classes/cs449/rnn1.html|popis]]+Trening RBF prebieha v dvoch stadiach - prve stadium je nelinearny trening RBF centier a druhy je nejaka lienarna optimalizacia vystupov z RBF layera.
  
 +  * Fixed centers selected at random - centra RBF hypergul sa nahodne rozhodia po celom priestore priznakov. Je to fajn ked maju data gaussovsku distribuciu. Je mozne im aj davat rozlicne velkosti, ale treba k tomu nejaku heuristiku dalsiu.
 +  * Self-organized selection of centers (metoda k-means) - centra sa prejdu nejakym SOM-like algoritmom a na jeho konci optimalne pokryju cely priestor priznakov.
 +  * Supervised selection of centers - nad vyberom centier stoji vsevidiace oko Velkeho Brata bwahaha.. Gradientove metoy, etc.. 
  
 +=== TRN - Topology Representing Network === 
 +
 +Ni na nete nic nenachadzam, tak vravim ze to je intepretacia dat pomocou grafu, v ktorom je mozne killovat a pridat hrany. 
 +
 +=== DCS - Dynamic Cell Structures ===
 +
 +Podobne ako TRN ale este navyse sa pridavaju nove nody do grafu, tam kde je najvacsia chyba medzi dvoma nodami. Nova noda ziska priemerne hodnoty jej susedov.
 +
 +=== Porovnanie RBF a MLP ===
 +
 +  * MLP deli priestor pomocou hyperrovin, MLP zase priestor deli pomocou "horucich" jadier hypergul. (teplo teplejsie .. uaa!). 
 +  * Rozdielnost aktivacnych funkcii
 +  * RBF staci jeden skryty layer
 +  * RBF sa uci ovela rychlejsie
 +  * MLP extrapoluje aj nezname data, RBF len tie ktore su blizko centier.. 
 +  * etc.. 
  
 ==== 14. RNS - Time Delayed Neural Network ==== ==== 14. RNS - Time Delayed Neural Network ====
Line 82: Line 121:
 Klasicke modely NN maju problem rozlisit casovy kontext a naslednost vstupov. Ich pamat je obmedzena len pre sucasny vstup, a vystup nezavysi od sekvencie poslednych vstupov (kontextu). Aplikacie v ktorych sa vyzaduje takato funkcnost su viacere: rozpoznavanie reci, predpovedanie casovych radov, rozpoznavanie casovych radov a podobne. \\ Klasicke modely NN maju problem rozlisit casovy kontext a naslednost vstupov. Ich pamat je obmedzena len pre sucasny vstup, a vystup nezavysi od sekvencie poslednych vstupov (kontextu). Aplikacie v ktorych sa vyzaduje takato funkcnost su viacere: rozpoznavanie reci, predpovedanie casovych radov, rozpoznavanie casovych radov a podobne. \\
 \\ \\
-Prve taketo modely NN boli len ciastocne rekurentne. Pouzivali vrstvu "kontextovych" neuronov: \\+Prve taketo modely NN boli len ciastocne rekurentne. Pouzivali vrstvu "kontextovych" neuronov, ktorych vystup sa posielal skrytej vrstve: \\
   * Elmanov model: kontextova vrstva dostava feedback od skrytej vrstvy   * Elmanov model: kontextova vrstva dostava feedback od skrytej vrstvy
   * Jordanov model: kontextova vrstva dostava feedback od vystupnej vrstvy. Pouzitie "decay units": c(i+1) = ALFA*(c(i)) + y(i), 0 < ALFA < 1   * Jordanov model: kontextova vrstva dostava feedback od vystupnej vrstvy. Pouzitie "decay units": c(i+1) = ALFA*(c(i)) + y(i), 0 < ALFA < 1
Line 96: Line 135:
 \\ \\
 Vyuzitia su speech recognition, time-series predition, etc - veci ktore vyzaduju aj casovy kontext. Nevyhody su tie, ze delay ma dlzku okna n, a tuto dlzku okna treba vzdy nejakym sposobom nastavit, pricom existuju aplikacie pre ktore ziadna dlzka n nieje vhodna, pretoze je konecna.  Vyuzitia su speech recognition, time-series predition, etc - veci ktore vyzaduju aj casovy kontext. Nevyhody su tie, ze delay ma dlzku okna n, a tuto dlzku okna treba vzdy nejakym sposobom nastavit, pricom existuju aplikacie pre ktore ziadna dlzka n nieje vhodna, pretoze je konecna. 
 +
 +
 +
 +==== 15. RNS - Back Propagation Through Time ====
 +
 +Rozsirenie feedforward sieti o casovu dimenziu. Podobne ako TDNN. Do delay fronty sa ale uklada vystup neuronu v case x. Fronta ma opat dlzku n. Vstupom do input layeru je sekvencia dlzky n. Neuron v case x+1 dostane na vstup: vystupy od neuronov v case x, x+1 cast sekvencie, a svoj vystup v case x. Vsetky tieto vstupy maju rovnake vahy.\\
 +
 +=== Trening === 
 +Trenovanie sa deje po "prezuti" celej sekvencie. U poslednej casti sekvencie sa vypocita delta ako nasobok f(net) a e(i). U predoslych casti sekvencie napriklad t, sa rata nasobok f(net) * [e(i) + suma vahy * delty (t+1)]. Vyrata sa takisto celkova chyba ako 1/2 * suma cez cas sum cez chyby neuronov. Vaha sa updatne ako alfa * suma cez cas delta(i) v case t * x(t-1).\\
 +
 +{{gnd:bptt.gif|}}
 +
 +Nevyhody podobne ako u TDNN - dlzka sekvencie je fixna. 
 +
 +
 +
 +[[http://www.willamette.edu/~gorr/classes/cs449/rnn1.html|popis]]
 +
 +
 +
 +
 +
 +
 +
 +
 +
 +
 +
 +==== 16. RNS - Real Time Recurrent Learnig ====
 +
 +Kompletne prepojena rekurentna neuronova siet. (alebo aspon minimalne sa tvari ze "we now make network connectivity very very unconstrained". Uci sa modifikaciou backpropu, ktory funguje realtime. Chyba sa rata len ked dany vystup ma nejaky "ciel". Pocita sa chyba v case t, a z nej sumaciu cez vsetky neurony s cielom celkova chyba v case t. Potom sa to zacina zamotavat: na updatovanie vah sa pouziva specialny operator:
 +
 +{{gnd:rtrl_operator.gif|}}
 +
 +ktory: 
 +
 +<code>
 +The key to understanding RTRL is to appreciate what this factor expresses. It is essentially a measure
 +of the sensitivity of the value of the output of unit k at time t to a small change in the value of wij,
 +taking into account the effect of such a change in the weight over the entire network trajectory from t0 to t.
 +Note that wij does not have to be connected to unit k. (!) Thus this algorithm is non-local, in that we need
 +to consider the effect of a change at one place in the network on the values computed at an entirely different place.
 +</code>
 +
 +Pouziva sa aj technika "Teacher forcing", kde sa niekedy vystupy nahradia idealnymi vystupmi (cielmi). Tie su potom feebackovane naspat do siete. 
 +
 +
 +=== Chyba & Vahy ===
 +
 +{{gnd:rtrl.gif|}}
 +
 +[[http://www.willamette.edu/~gorr/classes/cs449/rtrl.html|popis]]
 +
 +
 +==== 17. Hopfieldov model, Deterministicka verzia ====
 +
 +Hoppfieldov model bol popisany Johnom Hopfieldom v aprili 1982. Jedna sa o jedinu vrstvu kompletne poprepajanych neuronov. Vystupy jednotlivych neuronov su zapojene do vstupov ostatnych neuronov. Kazdy neuron ma aj externy vstup. Jedna sa o formu rekurentnej siete.\\
 +\\
 +  * Neurony su binarne, stavy bud -1 a 1, alebo 0 a 1, takto Hopfieldov model pripomina celularne automaty
 +  * Neurony niesu napojene same na seba. 
 +  * Vahy medzi neuronmi su symetricke
 +
 +=== Pravidlo aktivacie ===
 +
 +{{gnd:hopfield_rule.png|}}
 +
 +=== Zmena stavu === 
 +
 +Aktivacnou funkciou (napr. sgn()) prezenieme net (pravidlo aktivacie) od ktoreho odcitame treshold.. 
 +
 +=== Energia ===
 +
 +Hopfieldov system ma prisudenu energiu, ktora vyjadruje jeho stav vo fazovom priestore: 
 +
 +{{gnd:hopfield_energy.png|}}
 +
 +
 +=== Princip ===
 +
 +Hopfieldov model je vlastne dynamicky system. Energeticka rovnica popisuje fazovy priestor. Siet ako autoasociativna pamat. Sieti sa ponukne utrzok dat a siet si ich po istej chvili konvergovania vo fazovom priestore cele zrekonstruuje. Funguje to tak ze zapamatane data predstavuju vo fazovom priestore globalne minima, a vlastne su to atraktory, ktore pritahuju tie ci one vzorky, ktore sa sieti poskytnu. Z napisaneho vyplyva ze aktivacna rovnica sluzi na minimalizaciu energie. 
 +
 +  * Synchronny model (vahy sa updatuju naraz) 
 +  * Asynchronny model (vyberie sa nahodny neuron a vahy sa updatnu)
 +  * Hybridny model 
 +
 +
 +
 +
 +==== 18. Hopfieldov model, stochasticka verzia ====
 +
 +Pracuje sa s terminom T "teplota" (teda vlastne entropia). Stavy sa mozu premenit na ine stavy na zaklade pravdepodobnosti. Najprv sa urci pravdepodobnost zmeny na zaklade rovnic a potom sa zjavne hodi kockou. 
 +
 +=== Rovnice ===
 +
 +{{gnd:hopfield_stocha.gif|}}
 +
 +Dovysvetlenie: Spurious attractors su lokalne minima kde sa siet moze zastavit. Tieto stavy v stochastickom modeli vylucime tak ze do dat uvedieme sum (cez pravdepodobnostny pristup) 
 +
  
gnd/ann.1180296012.txt.gz · Last modified: 2007/05/27 20:00 (external edit)