Ing. František Hakl, CSc. (externí spolupracovník)

www: http://www.cs.cas.cz/hakl/
instituce: ÚI AV ČR
 
rozvrh
předmět kód vyučující zs ls zs kr. ls kr.
Neuronové sítě a jejich aplikace01NSAP Hakl, Holeňa 3+0 zk - - 4 -
Předmět:Neuronové sítě a jejich aplikace01NSAPIng. Hakl František CSc. / Doc. Ing. RNDr. Holeňa Martin CSc.3+0 ZK-4-
Anotace:Úvod do teorie umělých neuronových sítí, některé důležité druhy neuronových sítí, analýza binárních neuronových sítí pomocí prahových vektorů, vyčíslitelnost tříd Booleovských funkcí neuronovými sítěmi, neuronové sítě z hlediska aproximace funkcí, neuronové sítě z hlediska teorie pravděpodobnosti, numerické vlastnosti vybraných učících algoritmů.
Osnova:Úvod do teorie neuronových sítí, základní modely, analýza binárních neuronových sítí, aproximační možnosti neuronových sítí, Vapnikova-Červoněnkova dimense neuronových sítí, teorie učení a neuronové sítě, numerické aspekty algoritmů učení, aplikace teorie pravděpodobnosti v neuronových sítích, vztah fuzzy množin k neuronovým sítím.
Osnova cvičení:
Cíle:Znalosti:
Seznámit studenty s teoretickými a matematickými základy důležitých typů umělých neuronových sítí.

Schopnosti:
Orientovat se v přednášené problematice a umět ji použít v dalších disciplinách.
Požadavky:
Rozsah práce:
Kličová slova:Architektura neuronové sítě, učení neuronových sítí, důležité druhy neuronových sítí, numerické vlastnosti učících
algoritmů, univerzální aproximační schopnost neuronových sítí, pravděpodobnostní přístup k neuronovým sítím.
Literatura:Povinná literatura:
[1] F. Hakl, M. Holeňa. Úvod do teorie neuronových sítí. Ediční středisko ČVUT, Praha, 1997.
[2] M. Holeňa. Statistické aspekty dobývání znalostí z dat. Učební texty Univerzity Karlovy. Praha, nakladatelsví
Karolinum, 2006.

Doporučená literatura:
[3] H.White. Artificial Neural Networks: Approximation and Learning Theory. Blackwell Publishers, Cambridge, 1992.
[4] Jiří Šíma, Roman Neruda. Teoretické otázky neuronovýh sítí}. MATFYZPRESS, MFF UK Praha, 1996.
[5] Miroslav Šnorek and Marcel Jiřina. Neuronové sítě a neuropočítače, ČVUT, 1996.
[6] Vwani Roychowdhury, Kai-Yeung Siu, Alon Orlitsky. Theoretical Advances in Neural Computation and Learning. Kluwer
Academic Publishers, 1994.

Pravděpodobnostní modely učení01PMU Hakl 2+0 zk - - 2 -
Předmět:Pravděpodobnostní modely učení01PMUIng. Hakl František CSc.2+0 ZK-2-
Anotace:Úvod do teorie PAC modelu pravděpodobnostního učení, VC-dimenze konečných množin, Sauerovo, Coverovo a Radonovo lemma, VC-dimnenze složeného zobrazení, využití VC-dimenze pro odhad vzorů nutných pro PAC učicí algoritmus, analýza vlastností učení založeného na delta pravidle, rozšíření PAC modelu a PAO učení, pravděpodobnostní hledání Fourierových koeficientů Booleovských funkcí.
Osnova:1. Úvod PAC modelu učení
2. Koncepty a třídy konceptů
3. PAC učení pro případ konečných množin
4. Vapnik-Červoněnkova dimenze (Sauerovo, Coverovo a Radonovo lemma)
5. VC-dimenze konečných množin
6. VC-dimenze sjednocení a průniku
7. VC-dimenze of lineárních konceptů
8. Aplikace Coverova lemmatu
9. Vapnik-Červoněnkova dimenze složeného zobrazení
10. Vzorová složitost a VC-dimenze
11. Odhad minimálního počtu vzorů pro PAC učení
12. Učící algoritmy odvozené od delta pravidla
13. Dolní odhad maximálního počtu kroků delta pravidla
14. Polynomiální učení a dimenze vzorů
15. Přibližné řešení problému pokrytí množin
16. Polynomiální učení a popisná složitost vzorů
17. Pravděpodobnostní učící algoritmy
18. Pravděpodobnostní aproximace Fourierova rozvoje
19. Pravděpodobnostní hledání koeficientů Fourierova rozvoje Booleovských funkcí
20. PAO model učení
Osnova cvičení:
Cíle:Znalosti:
Seznámit studenty s teoretickými a matematickými základy teorie pravděpodobnostního PAC modelu učení a jeho
variant.

Schopnosti:
Orientovat se v přednášené problematice a umět ji použít v dalších disciplinách.
Požadavky:
Rozsah práce:
Kličová slova:PAC model učení, Vapnik-Červoněnkova dimenze, vzorová složitost, delta pravidlo, problém pokrytí množin, pravděpodobnostní hledání Fourierových koeficientů.
Literatura:Povinná literatura:
[1] F. Hakl, M. Holeňa. Úvod do teorie neuronových sítí. Ediční středisko ČVUT, Praha, 1997.

Doporučená literatura:
[2] Vwani Roychowdhury, Kai-Yeung Siu, Alon Orlitsky. Theoretical Advances in Neural Computation and Learning. Kluwer, Academic Publishers, 1994.
[3] Martin Anthony and Norman Biggs. Computational Learning Theory. Press Syndicate of the University of Cambridge, 1992.
[4] A. Blumer, A. Ehrenfeucht, D. Haussler, and M. K. Warmuth. Learnability and the Vapnik-Chervonenkis Dimension. Journal of the Association for Computing Machinery, 36:929-965, oct 1989.

Vývoj software pro aplikace neuronových sítí v separaci a

školitel: Ing. Hakl František CSc.
e-mail: zobrazit e-mail
typ práce: bakalářská práce, diplomová práce
zaměření: MI_MM, II_SIMI, II_TS
klíčová slova: neuronové sítě
popis: Správa, údržba a vývoj softwarového klasifikátoru dat získaných z částicového urychlovače.
naposledy změněno: 16.09.2011 08:21:13

Paralelní implementace algoritmu neuronové sítě typu NNSU na architektuře procesorů grafických karet

školitel: Ing. František Hakl, CSc.
e-mail: zobrazit e-mail
typ práce:
zaměření: II_SIMI, II_TS
klíčová slova: paralelní algoritmy, neuronové sítě, grafické procesory
popis: Neuronová síť typu NNSU (Neural Network with Switching Units) je separační algoritmus, jež je založen na postupném zjemňování rozdělení vstupního prostoru. Separovaná data jsou v průběhu výpočtu přiřazována předdefinovaným shlukům, které jsou zpracovávány odděleně. Tímto způsobem lze docílit lepší separace při zachování lineárních diskriminačních ploch. Primárním cílem při vývoji tohoto algoritmu byla rychlost výpočtu v procesu vyhodnocování, jelikož hlavní aplikací modelu je podpora redukce datového toku v urychlovači elementárních částic. Tématem práce by byla paralelní implementace zmíněného algoritmu na architekturách procesorů grafických karet (GPU) a zhodnocení urychlení výpočtu na fyzikalních úlohách. Práce by probíhala v následujících krocích: 1) detailní seznámení se s modelem NNSU 2) návrh a analýza způsobu paralelizace algoritmu s přihlédnutím ke specifickým vlastnostem grafických procesorů 3) vlastní implementace algoritmu 4) testování urychlení výpočtu na GPU oproti sekvenčnímu výpočtu.
poznámka: konzultace GPU Ing. Tomáš Oberhuber
naposledy změněno: 16.09.2011 08:10:26

za obsah této stránky zodpovídá: Radek Fučík | naposledy změněno: 7.8.2011
Trojanova 13, 120 00 Praha 2, tel. 224 358 540, pevná linka 224 923 098, fax 234 358 643
České vysoké učení technické v Praze | Fakulta jaderná a fyzikálně inženýrská | Katedra matematiky