Bakalářské práce
Čištění dat pomocí pravděpodobnostního programování
Autor
Tomáš Jungman
Rok
2022
Typ
Bakalářská práce
Vedoucí
Mgr. Vojtěch Rybář
Oponenti
Ing. Daniel Vašata, Ph.D.
Katedra
Anotace
Práce zahrnuje rešerši z oblasti čištění a doplňování datových sad a zaměřuje se na konkrétní přístup s využitím pravděpodobnostního programování. Pro praktickou část práce je využíván pravděpodobnostní programovací jazyk PClean naprogramovaný v jazyce Julia. Jsou vysvětleny principy, na kterých funguje, a popsány konkrétní části nutné pro sepsání programu. Následně je v PClean napsán program pro doplnění a opravu hodnot v datové sadě se záznamy automobilů (cena, výkon, palivo, atd.)
S touto opravenou sadou dat se provádí odhad ceny za pomocí regrese a kvalita výsledku se porovnává s výsledky při použití neupravených dat se sjednocenou doplňovanou hodnotou pro každý sloupec, anebo doplněných na základě odborných znalostí. Model naučený daty doplněných s PClean nedosahuje kvalit modelu založeného na odborných znalostech. Ale na druhou stranu PClean nabízí rychlý způsob doplnění chybějících kategorických hodnot s kvalitou přesahující dnes běžně používané triviální doplnění.
Modelování proudění kolem leteckého profilu pomocí grafových neuronových sítí
Autor
David Horský
Rok
2022
Typ
Bakalářská práce
Vedoucí
Mgr. Vojtěch Rybář
Oponenti
Ing. Daniel Vašata, Ph.D.
Katedra
Anotace
V bakalářské práci podáváme přehled využití strojového učení ve výpočetní
dynamice tekutin. Implementovali jsme nejmodernější grafovou neuronovou
síť pro simulaci proudění vzduchu kolem profilu křídla ve 2D. Trénujeme model na nižších rychlostech a úhlech náběhu, následně extrapolujeme na vyšší.
Natrénovali jsme model, který extrapoluje s malou chybou přesnosti a zůstává
stabilní po dlouhý počet simulačních kroků.
Machine Learning Explainability Methods
Autor
Danila Makulov
Rok
2024
Typ
Bakalářská práce
Vedoucí
Mgr. Vojtěch Rybář
Oponenti
Ing. Magda Friedjungová, Ph.D.
Katedra
Anotace
Strojové učení se stále více používá v mnoha citlivých aplikacích, kde je nezbytné pochopit, proč se modely chovají tak, jak se chovají. Takový rychlý nárůst zvýšil poptávku po vysvětlitelném strojovém učení a nových metodách vysvětlení. Tyto metody však nezaručují konzistentní výstupy.
Tato práce podává stručný přehled současného stavu vysvětlitelného strojového učení a jeho metod se zaměřením především na metody lokálního vysvětlení (např. SHAP a LIME) a globální metody vykreslování pro tabulková data a metody specifické pro modely neuronových sítí. Ukazujeme příklady nekonzistentních vysvětlení SHAP a LIME, ilustrujeme a vysvětlujeme, jak jsou některé metody ovlivněny korelací, a ukazujeme praktické příklady použití metod pro neuronové sítě k analýze modelu a nalezení jeho biasů. Na závěr uvádíme několik doporučení při řešení nekonzistentních výstupů na základě provedeného výzkumu a vlastních experimentů.
Srovnání interpretovatelných modelů s post-hoc vysvětlitelnými black-box modely
Autor
Mikuláš Kočí
Rok
2024
Typ
Bakalářská práce
Vedoucí
Mgr. Vojtěch Rybář
Oponenti
Ing. Ivo Petr, Ph.D.
Katedra
Anotace
Hlavním cílem této práce bylo poskytnout další důkazy, že interpretovatelných modely jsou schopné dosáhnout podobných, ne-li lepšího výkonu, než černé skříňky. V našem experimentu jsme zjistili, že pro ani jeden dataset nedosahovala černá skříňka výrazně lepších výsledků, než její interpretovatelné protějšky, kde nejvyšší zaznamený rozdíl z hlediska F1 skóre byl 0.02. Tato výhoda však rozhodně není natolik významná, aby prevážila výhody, které přináší ze své podstaty interpretovatelný model. To platí zejména pro rozhodování s vysokou mírou riyika, kde bychom museli využít nějakou metodu vysvětlitelnosti, která by však nemusela odhalit zaujatost modelu, což by mohlo vést ke špatnému výkonu v reálném světě.