Ing. František Hakl, CSc. (externí spolupracovník)

www: http://www.cs.cas.cz/hakl/
instituce: ÚI AV ČR
 
rozvrh
předmět kód vyučující zs ls zs kr. ls kr.
Neuronové sítě a jejich aplikace01NEUR1 Hakl, Holeňa - - 2+0 zk - 2
Předmět:Neuronové sítě a jejich aplikace 101NEUR1----
Anotace:Klíčová slova:
Neuronové sítě, separace dat, approximace funkcí, učení s učitelem.
Osnova:1. Základní koncepty umělých neuronových sítí.
2. Nejběžňejší typy umělých neuronových sítí.
3. Základní numerické metody učení neuronových sítí.
4. Metody optimalizace návrhu architektur neuronových sítí.
5. Přehled základních typů úloh řešených neuronovými sítěmi.
6. Práce s umělými neuronovými sítěmi ve vývojovém prostředí Matlab a ROOT.
Osnova cvičení:
Cíle:Znalosti:
Základní pojmy, vlastnosti a využití modelů umělých neuronových sítí.

Schopnosti:
Orientace v dané problematice, schopnost používání modelů umělých neuronových sítí pro řešení praktických úloh z oblasti aproximace funkci, separace množin a predikce časových řad.
Požadavky:
Rozsah práce:
Kličová slova:
Literatura:Literatura povinná:
[1] R. Rojas. Neural Networks ? A Systematic Introduction. Springer. 1991

Literatura doporučená:
[2] B.D. Ripley. Pattern Recognition and Neural Networks. Cambridge University Press. 1996

Teoretické základy neuronových sítí01NEUR2 Hakl, Holeňa 2+0 zk - - 3 -
Předmět:Teoretické základy neuronových sítí01NEUR2----
Anotace:Klíčová slova:
Approximace funkcí, učení s učitelem, VC-dimenze.
Osnova:1. Přístup k umělým neuronovým sítím z hlediska teorie aproximace funkcí.
2. Přístup k umělým neuronovým sítím z hlediska teorie pravděpodobnosti.
3. Analýza řešitelnosti vybraných úloh modely neuronových sítí.
4. Kvalitativní descriptory neuronových sítí (VC-dimenze, pseudodimenze, citlivostní dimenze).
5. Teoretické základy učení neuronových sítí.
6. Vybrané pokročilé klasifikační aplikace umělých neuronových sítí.

Osnova cvičení:
Cíle:Znalosti:
Teoretické základy pro studium vlastností a potenciálu modelů umělých neuronových sítí.

Schopnosti:
Pokročilá schopnost analýzy vhodnosti a efektivity modelů umělých neuronových sítí pro praktické aplikace. Fundamentální základy pro rozšiřování teoretických poznatků umožňujících vyšší pochopení a rozvoj principů umělé inteligence.
Požadavky:Některá vybraná témata v této přednášce velmi úzce souvisí s obsahem přednášky ?Pravděpodobnostní modely učení?, která tato vybraná témata prezentuje v mnohem širší a hlubší formě.
Rozsah práce:
Kličová slova:
Literatura:Literatura povinná:
[1] J. Šíma, R. Neruda. Teoretické otázky neuronových sítí. Matfyzpress. 1996

Literatura doporučená:
[2] M. Anthony, P. L. Bartlett. Neural Network Learning: Theoretical foundations. Cambridge university Press, 2009.
[3] M. Vidyasagar. A theory of Learning and Generalization. Springer 1997.
[4] V. Roychowdhury, K-Y. Siu, A. Orlitsky. Theoretical advances in neural computation and learning. Kluwer Academic Publishers. 1994.

Pravděpodobnostní modely učení01PMU Hakl 2+0 zk - - 2 -
Předmět:Pravděpodobnostní modely učení01PMUIng. Hakl František CSc.2+0 ZK-2-
Anotace:Úvod do teorie PAC modelu pravděpodobnostního učení, VC-dimenze konečných množin, Sauerovo, Coverovo a Radonovo lemma, VC-dimnenze složeného zobrazení, využití VC-dimenze pro odhad vzorů nutných pro PAC učicí algoritmus, analýza vlastností učení založeného na delta pravidle, rozšíření PAC modelu a PAO učení, pravděpodobnostní hledání Fourierových koeficientů Booleovských funkcí.
Osnova:1. Úvod PAC modelu učení
2. Koncepty a třídy konceptů
3. PAC učení pro případ konečných množin
4. Vapnik-Červoněnkova dimenze (Sauerovo, Coverovo a Radonovo lemma)
5. VC-dimenze konečných množin
6. VC-dimenze sjednocení a průniku
7. VC-dimenze of lineárních konceptů
8. Aplikace Coverova lemmatu
9. Vapnik-Červoněnkova dimenze složeného zobrazení
10. Vzorová složitost a VC-dimenze
11. Odhad minimálního počtu vzorů pro PAC učení
12. Učící algoritmy odvozené od delta pravidla
13. Dolní odhad maximálního počtu kroků delta pravidla
14. Polynomiální učení a dimenze vzorů
15. Přibližné řešení problému pokrytí množin
16. Polynomiální učení a popisná složitost vzorů
17. Pravděpodobnostní učící algoritmy
18. Pravděpodobnostní aproximace Fourierova rozvoje
19. Pravděpodobnostní hledání koeficientů Fourierova rozvoje Booleovských funkcí
20. PAO model učení
Osnova cvičení:
Cíle:Znalosti:
Seznámit studenty s teoretickými a matematickými základy teorie pravděpodobnostního PAC modelu učení a jeho
variant.

Schopnosti:
Orientovat se v přednášené problematice a umět ji použít v dalších disciplinách.
Požadavky:
Rozsah práce:
Kličová slova:PAC model učení, Vapnik-Červoněnkova dimenze, vzorová složitost, delta pravidlo, problém pokrytí množin, pravděpodobnostní hledání Fourierových koeficientů.
Literatura:Povinná literatura:
[1] F. Hakl, M. Holeňa. Úvod do teorie neuronových sítí. Ediční středisko ČVUT, Praha, 1997.

Doporučená literatura:
[2] Vwani Roychowdhury, Kai-Yeung Siu, Alon Orlitsky. Theoretical Advances in Neural Computation and Learning. Kluwer, Academic Publishers, 1994.
[3] Martin Anthony and Norman Biggs. Computational Learning Theory. Press Syndicate of the University of Cambridge, 1992.
[4] A. Blumer, A. Ehrenfeucht, D. Haussler, and M. K. Warmuth. Learnability and the Vapnik-Chervonenkis Dimension. Journal of the Association for Computing Machinery, 36:929-965, oct 1989.


za obsah této stránky zodpovídá: Radek Fučík | naposledy změněno: 7.8.2011
Trojanova 13, 120 00 Praha 2, tel. 224 358 540, pevná linka 224 923 098, fax 234 358 643
České vysoké učení technické v Praze | Fakulta jaderná a fyzikálně inženýrská | Katedra matematiky