User Tools

Site Tools


gnd:ann

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
gnd:ann [2007/05/27 23:54]
gnd
gnd:ann [2007/05/28 02:20] (current)
Line 1: Line 1:
 ==== Uvod do Neuronovych Sieti ==== ==== Uvod do Neuronovych Sieti ====
  
-[[http://ii.fmph.uniba.sk/~farkas/Courses/NeuralNets/ns-otazky.pdf|Zadanie otazok]] +  * [[http://ii.fmph.uniba.sk/~farkas/Courses/NeuralNets/ns-otazky.pdf|Zadanie otazok]] 
-[[http://ii.fmph.uniba.sk/~farkas/Courses/ns.html|Farkasova Stranka]]+  [[http://ii.fmph.uniba.sk/~farkas/Courses/ns.html|Farkasova Stranka]] 
 +  * [[http://www.faqs.org/faqs/ai-faq/neural-nets/part1/preamble.html|Sarlov Neural Nets FAQ na USENETe]]
  
 +nedopracovane otazky su dosledok znizovania casoveho okna a zvysovania unavy.. nic moc overall.
 +
 +
 +==== 9. Principal Component Analysis ====
 +
 +Vyratame si korelacnu maticu a pomocou nej ziskame hlavne vektory a hlavne komponenty pre dane data. toto mozem pouzit na dekorelaciu dat alebo redukciu dimenzie, alebo rekonstrukciu poskodenych dat, alebo kopresiu. Viacej napriklad tu: http://csnet.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf
 +
 +
 +==== 10. Self Organized Maps ====
 +
 +=== Učenie so súťažením ===
 +
 +Vzor sa hodi sieti, a podla nejakeho kriteria sa vyberie najlepsie reagujuci neuron. Bud je to Euklidovska vzdialenost vzoru a vektoru vah daneho neuronu (ktora musi byt najmensia zo vsetkych), alebo je to velkost odozvy w^t * x. Co je vlastne to iste, ked si rozpiseme ako sa rata euklidovska vzdialenost. Sutazenie ma este jeden rozmer - medzi neuronmi existuju lateralne vazby. Neurony blizko vitazneho neuronu su excitovane, neurony kusok dalej zase inhibovane. Suvisi to s principmi samorganizacie - teda existencia lokalnych pozitivnych spatnych vazieb. Blablabla.. som is easy gonda is dead. 
 +
 +=== Et Cetera .. ===
 +
 +**Neurobiologická motivácia algoritmu SOM, laterálna interakcia a jej náhrada v SOM, sumarizácia algoritmu, voľba parametrov modelu, DP verzia algoritmu.**
 +
 +blablabla vieme.. 
 +
 +
 +
 +
 +==== 11. Self Organized Maps ====
 +
 +=== Vektorová kvantizácia===
 +
 +**Learning vector Quantization**
 +
 +Pre data sa vyberie M prototypov - kedze ma byt M tried na klasifikaciu. Tieto prototypy su reprezentovane neuronmi a vahami ktore k nim zo vstupnych dat vedu. Nainicializuju sa napriklad tak ze kazdemu neuronu sa nastavia vahy na nejaky vektor zo vstupnych dat. Potom sa robi normalne kompetitivne ucenie, kde sa vyberie nahodny vektor x z mnoziny vstupnych dat a hlada sa prototyp (neuron), ktory ma najbzlizsiu euklidovsku vzdialenost ku x. Ten ktory vyhra je potom updatnuty takto: \\
 +\\
 +w(new) = w(old) + m( x - w(old) ), kde m je pocet prototypov.
 +\\
 +Potom co su neurony natrenovane, sa moze siet pouzit na klasifikaciu dat. Ak je to dvojrozmerny priestor, tak prototypy definuju jadra Voronoivho diagramu. Very easy. Pouziva sa aj na kompresiu. (namiesto vektoru sa posiela kod prototypu kde patri - napriklad v telefonnej komunikacii)
 +
 +=== topografické zobrazenie príznakov ===
 +
 +Kedze v SOM-ke vyhravaju s vitaznym neuronom aj jeho topologicky susedia, nastava zhromazdovanie podobnych klastrov vedla seba.
 +
 +=== redukcia dimenzie ===
 +
 +blabla.. ak mame 2d SOM tak data sa zredukuju do 2d priestoru. 
 +
 +=== magnifikačný faktor ===
 +
 +vela podobnych dat a malo inych, ked napriklad je narusena gausovsa distribucia vstupov, sposobi ze siet sa lepsie nauci rozoznavat tieto data ktore jej boli viacej prezentovane a vo vyslednej mape zaberaju vacsi priestor. "Som aproximuje hustotu rozlozenia vstupnych dat"
 +
 +===  náčrt matematických problémov analýzy algoritmu ===
 +
 +netusim.. 
  
 ==== 12. Hybridne model NS: Radial Basis Functions ==== ==== 12. Hybridne model NS: Radial Basis Functions ====
gnd/ann.1180302859.txt.gz · Last modified: 2007/05/27 21:54 (external edit)