This shows you the differences between two versions of the page.
Both sides previous revision Previous revision Next revision | Previous revision | ||
gnd:ann [2007/05/27 22:00] gnd |
gnd:ann [2007/05/28 02:20] (current) |
||
---|---|---|---|
Line 1: | Line 1: | ||
==== Uvod do Neuronovych Sieti ==== | ==== Uvod do Neuronovych Sieti ==== | ||
- | [[http:// | + | * [[http:// |
- | [[http:// | + | |
+ | * [[http:// | ||
+ | nedopracovane otazky su dosledok znizovania casoveho okna a zvysovania unavy.. nic moc overall. | ||
- | ==== 18. Hopfieldov model, stochasticka verzia | + | ==== 9. Principal Component Analysis |
- | Pracuje sa s terminom T " | + | Vyratame si korelacnu maticu a pomocou nej ziskame hlavne vektory a hlavne komponenty pre dane data. toto mozem pouzit |
- | === Rovnice === | ||
- | {{gnd: | + | ==== 10. Self Organized Maps ==== |
- | Dovysvetlenie: | + | === Učenie so súťažením === |
- | ==== 17. Hopfieldov model, Deterministicka verzia ==== | + | Vzor sa hodi sieti, a podla nejakeho kriteria sa vyberie najlepsie reagujuci neuron. Bud je to Euklidovska vzdialenost vzoru a vektoru vah daneho neuronu (ktora musi byt najmensia zo vsetkych), alebo je to velkost odozvy w^t * x. Co je vlastne to iste, ked si rozpiseme ako sa rata euklidovska vzdialenost. Sutazenie ma este jeden rozmer - medzi neuronmi existuju lateralne vazby. Neurony blizko vitazneho neuronu su excitovane, neurony kusok dalej zase inhibovane. Suvisi to s principmi samorganizacie - teda existencia lokalnych pozitivnych spatnych vazieb. Blablabla.. som is easy gonda is dead. |
- | Hoppfieldov model bol popisany Johnom Hopfieldom | + | === Et Cetera .. === |
+ | |||
+ | **Neurobiologická motivácia algoritmu SOM, laterálna interakcia a jej náhrada | ||
+ | |||
+ | blablabla vieme.. | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ==== 11. Self Organized Maps ==== | ||
+ | |||
+ | === Vektorová kvantizácia=== | ||
+ | |||
+ | **Learning vector Quantization** | ||
+ | |||
+ | Pre data sa vyberie M prototypov - kedze ma byt M tried na klasifikaciu. Tieto prototypy | ||
\\ | \\ | ||
- | * Neurony su binarne, stavy bud -1 a 1, alebo 0 a 1, takto Hopfieldov model pripomina celularne automaty | + | w(new) = w(old) + m( x - w(old) ), kde m je pocet prototypov. |
- | * Neurony niesu napojene same na seba. | + | \\ |
- | * Vahy medzi neuronmi | + | Potom co su neurony natrenovane, |
- | === Pravidlo aktivacie | + | === topografické zobrazenie príznakov |
- | {{gnd: | + | Kedze v SOM-ke vyhravaju s vitaznym neuronom aj jeho topologicky susedia, nastava zhromazdovanie podobnych klastrov vedla seba. |
- | === Zmena stavu === | + | === redukcia dimenzie |
- | Aktivacnou funkciou (napr. sgn()) prezenieme net (pravidlo aktivacie) od ktoreho odcitame treshold.. | + | blabla.. ak mame 2d SOM tak data sa zredukuju do 2d priestoru. |
- | === Energia | + | === magnifikačný faktor |
- | Hopfieldov system ma prisudenu energiu, ktora vyjadruje jeho stav vo fazovom priestore: | + | vela podobnych dat a malo inych, ked napriklad je narusena gausovsa distribucia vstupov, sposobi ze siet sa lepsie nauci rozoznavat tieto data ktore jej boli viacej prezentovane a vo vyslednej mape zaberaju vacsi priestor. "Som aproximuje hustotu rozlozenia vstupnych dat" |
- | {{gnd: | + | === náčrt matematických problémov analýzy algoritmu === |
+ | netusim.. | ||
- | === Princip | + | ==== 12. Hybridne model NS: Radial Basis Functions ==== |
- | Hopfieldov model je vlastne dynamicky system. Energeticka rovnica popisuje fazovy priestor. Siet ako autoasociativna pamat. Sieti sa ponukne utrzok dat a siet si ich po istej chvili konvergovania vo fazovom priestore cele zrekonstruuje. Funguje to tak ze zapamatane data predstavuju vo fazovom priestore globalne minima, a vlastne su to atraktory, ktore pritahuju tie ci one vzorky, ktore sa sieti poskytnu. Z napisaneho vyplyva ze aktivacna rovnica sluzi na minimalizaciu energie. | + | Paradny popis principu fungovania RBF: http://www.statsoft.com/ |
+ | \\ | ||
+ | === Aktivacne vzorce === | ||
- | | + | Siet pozostava z jednej skrytej vrstvy, ktora je zlozena z jednotiek, jadier, ktore interpretuju hypergule (preto |
- | * Asynchronny model (vyberie | + | |
- | * Hybridny model | + | |
+ | {{gnd: | ||
+ | === Bazove funkcie === | ||
+ | Tieto funkcie popisuju jadro + fallof hypergule, pricom klasifikacia vlastne znamena vzdialenost vzoru od jadra nejakej hypergule. | ||
+ | Gaussia, Cauchy, Multiquadrics, | ||
+ | {{gnd: | ||
+ | === Priznakovy priestor === | ||
- | ==== 16. RNS - RTRL ==== | + | Sa sklada z rozmiestnenych jadier RBF jednotiek, z ktorych kazde ma inu charakteristiku, |
- | Real-Time Recurrent Learnig. Kompletne prepojena rekurentna neuronova siet. Uci sa modifikaciou backpropu, ktory funguje v case. Pouziva sa technika " | + | === Problem interpolacie === |
- | === Chyba & Vahy === | + | Najst funkciu, ktora spravne interpoluje data. RBF to robia linearnou kombinaciou jednotiek h(i). Teda w^t*h(i) |
- | {{gnd: | + | === Aproximacne vlastnosti === |
- | [[http:// | + | Blablabla, tak ako v tom anglickom texte. RBF sa fasa rychlo ucia oproti MLP, ale zase vyzaduju vacsi priestor, a je problem najst vhodne rozlozenie centier v priznakovom priestore. |
- | ==== 15. RNS - Back Propagation Through Time ==== | ||
- | Rozsirenie feedforward sieti o casovu dimenziu. Podobne ako TDNN. Do delay fronty sa ale uklada vystup neuronu v case x. Fronta ma opat dlzku n. Vstupom do input layeru je sekvencia dlzky n. Neuron v case x+1 dostane na vstup: vystupy od neuronov v case x, x+1 cast sekvencie, a svoj vystup v case x. Vsetky tieto vstupy maju rovnake vahy.\\ | + | ==== 13. Hybridne model NS: Radial Basis Functions, TRN, DCS ==== |
- | === Trening | + | === RBF - sposoby trenovania vah === |
- | Trenovanie sa deje po " | + | |
- | Nevyhody podobne ako u TDNN - dlzka sekvencie je fixna. | + | |
- | [[http:// | + | Trening RBF prebieha v dvoch stadiach - prve stadium je nelinearny trening RBF centier a druhy je nejaka lienarna optimalizacia vystupov z RBF layera. |
+ | * Fixed centers selected at random - centra RBF hypergul sa nahodne rozhodia po celom priestore priznakov. Je to fajn ked maju data gaussovsku distribuciu. Je mozne im aj davat rozlicne velkosti, ale treba k tomu nejaku heuristiku dalsiu. | ||
+ | * Self-organized selection of centers (metoda k-means) - centra sa prejdu nejakym SOM-like algoritmom a na jeho konci optimalne pokryju cely priestor priznakov. | ||
+ | * Supervised selection of centers - nad vyberom centier stoji vsevidiace oko Velkeho Brata bwahaha.. Gradientove metoy, etc.. | ||
+ | === TRN - Topology Representing Network === | ||
+ | |||
+ | Ni na nete nic nenachadzam, | ||
+ | |||
+ | === DCS - Dynamic Cell Structures === | ||
+ | |||
+ | Podobne ako TRN ale este navyse sa pridavaju nove nody do grafu, tam kde je najvacsia chyba medzi dvoma nodami. Nova noda ziska priemerne hodnoty jej susedov. | ||
+ | |||
+ | === Porovnanie RBF a MLP === | ||
+ | |||
+ | * MLP deli priestor pomocou hyperrovin, MLP zase priestor deli pomocou " | ||
+ | * Rozdielnost aktivacnych funkcii | ||
+ | * RBF staci jeden skryty layer | ||
+ | * RBF sa uci ovela rychlejsie | ||
+ | * MLP extrapoluje aj nezname data, RBF len tie ktore su blizko centier.. | ||
+ | * etc.. | ||
==== 14. RNS - Time Delayed Neural Network ==== | ==== 14. RNS - Time Delayed Neural Network ==== | ||
Line 82: | Line 121: | ||
Klasicke modely NN maju problem rozlisit casovy kontext a naslednost vstupov. Ich pamat je obmedzena len pre sucasny vstup, a vystup nezavysi od sekvencie poslednych vstupov (kontextu). Aplikacie v ktorych sa vyzaduje takato funkcnost su viacere: rozpoznavanie reci, predpovedanie casovych radov, rozpoznavanie casovych radov a podobne. \\ | Klasicke modely NN maju problem rozlisit casovy kontext a naslednost vstupov. Ich pamat je obmedzena len pre sucasny vstup, a vystup nezavysi od sekvencie poslednych vstupov (kontextu). Aplikacie v ktorych sa vyzaduje takato funkcnost su viacere: rozpoznavanie reci, predpovedanie casovych radov, rozpoznavanie casovych radov a podobne. \\ | ||
\\ | \\ | ||
- | Prve taketo modely NN boli len ciastocne rekurentne. Pouzivali vrstvu " | + | Prve taketo modely NN boli len ciastocne rekurentne. Pouzivali vrstvu " |
* Elmanov model: kontextova vrstva dostava feedback od skrytej vrstvy | * Elmanov model: kontextova vrstva dostava feedback od skrytej vrstvy | ||
* Jordanov model: kontextova vrstva dostava feedback od vystupnej vrstvy. Pouzitie "decay units": | * Jordanov model: kontextova vrstva dostava feedback od vystupnej vrstvy. Pouzitie "decay units": | ||
Line 96: | Line 135: | ||
\\ | \\ | ||
Vyuzitia su speech recognition, | Vyuzitia su speech recognition, | ||
+ | |||
+ | |||
+ | |||
+ | ==== 15. RNS - Back Propagation Through Time ==== | ||
+ | |||
+ | Rozsirenie feedforward sieti o casovu dimenziu. Podobne ako TDNN. Do delay fronty sa ale uklada vystup neuronu v case x. Fronta ma opat dlzku n. Vstupom do input layeru je sekvencia dlzky n. Neuron v case x+1 dostane na vstup: vystupy od neuronov v case x, x+1 cast sekvencie, a svoj vystup v case x. Vsetky tieto vstupy maju rovnake vahy.\\ | ||
+ | |||
+ | === Trening === | ||
+ | Trenovanie sa deje po " | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | Nevyhody podobne ako u TDNN - dlzka sekvencie je fixna. | ||
+ | |||
+ | |||
+ | |||
+ | [[http:// | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ==== 16. RNS - Real Time Recurrent Learnig ==== | ||
+ | |||
+ | Kompletne prepojena rekurentna neuronova siet. (alebo aspon minimalne sa tvari ze "we now make network connectivity very very unconstrained" | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | ktory: | ||
+ | |||
+ | < | ||
+ | The key to understanding RTRL is to appreciate what this factor expresses. It is essentially a measure | ||
+ | of the sensitivity of the value of the output of unit k at time t to a small change in the value of wij, | ||
+ | taking into account the effect of such a change in the weight over the entire network trajectory from t0 to t. | ||
+ | Note that wij does not have to be connected to unit k. (!) Thus this algorithm is non-local, in that we need | ||
+ | to consider the effect of a change at one place in the network on the values computed at an entirely different place. | ||
+ | </ | ||
+ | |||
+ | Pouziva sa aj technika " | ||
+ | |||
+ | |||
+ | === Chyba & Vahy === | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | [[http:// | ||
+ | |||
+ | |||
+ | ==== 17. Hopfieldov model, Deterministicka verzia ==== | ||
+ | |||
+ | Hoppfieldov model bol popisany Johnom Hopfieldom v aprili 1982. Jedna sa o jedinu vrstvu kompletne poprepajanych neuronov. Vystupy jednotlivych neuronov su zapojene do vstupov ostatnych neuronov. Kazdy neuron ma aj externy vstup. Jedna sa o formu rekurentnej siete.\\ | ||
+ | \\ | ||
+ | * Neurony su binarne, stavy bud -1 a 1, alebo 0 a 1, takto Hopfieldov model pripomina celularne automaty | ||
+ | * Neurony niesu napojene same na seba. | ||
+ | * Vahy medzi neuronmi su symetricke | ||
+ | |||
+ | === Pravidlo aktivacie === | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | === Zmena stavu === | ||
+ | |||
+ | Aktivacnou funkciou (napr. sgn()) prezenieme net (pravidlo aktivacie) od ktoreho odcitame treshold.. | ||
+ | |||
+ | === Energia === | ||
+ | |||
+ | Hopfieldov system ma prisudenu energiu, ktora vyjadruje jeho stav vo fazovom priestore: | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | |||
+ | === Princip === | ||
+ | |||
+ | Hopfieldov model je vlastne dynamicky system. Energeticka rovnica popisuje fazovy priestor. Siet ako autoasociativna pamat. Sieti sa ponukne utrzok dat a siet si ich po istej chvili konvergovania vo fazovom priestore cele zrekonstruuje. Funguje to tak ze zapamatane data predstavuju vo fazovom priestore globalne minima, a vlastne su to atraktory, ktore pritahuju tie ci one vzorky, ktore sa sieti poskytnu. Z napisaneho vyplyva ze aktivacna rovnica sluzi na minimalizaciu energie. | ||
+ | |||
+ | * Synchronny model (vahy sa updatuju naraz) | ||
+ | * Asynchronny model (vyberie sa nahodny neuron a vahy sa updatnu) | ||
+ | * Hybridny model | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ==== 18. Hopfieldov model, stochasticka verzia ==== | ||
+ | |||
+ | Pracuje sa s terminom T " | ||
+ | |||
+ | === Rovnice === | ||
+ | |||
+ | {{gnd: | ||
+ | |||
+ | Dovysvetlenie: | ||
+ | |||