Dizertační práce
Distribuované IDS
Školitel-specialista: Ing. Jan Fesl, Ph.D.
Klasické Intrusion Detection Systems (IDS) hrají v zabezpečení počítačových sítí či datových center již řadu let důležitou roli. V případě sítí s ultra-vysokým průtokem dat již klasický koncept IDS použít nelze kvůli jeho omezenému lokálnímu výpočetnímu výkonu. Jeden ze způsobů řešení jsou distribuované IDS (DIDS). Úkolem disertační práce bude studium algoritmů a metod, které budou využitelné jednak pro rozdělování zátěže mezi sondami síťového provozu a dále i pro samotnou analýzu síťového provozu v rámci konkrétního DIDS. Pro zvýšení účinnosti resp. pro zpřesňování úspěšnosti predikce konkrétní síťové aktivity se jeví jako perspektivní použití kolaborativního strojového učení, které svojí podstatou odpovídá konceptu DIDS.
Formální modely detekce/prevence DDOS
Školitel-specialista: Ing. Jan Fesl, Ph.D.
Distribuované útoky typu DDOS (klasické či pomalé) představují velkou hrozbu jak v dnešním Internetu, tak i softwarově definovaných sítích či v cloudech. Účinnou obranou proti takovýmto útokům je jejich včasná a spolehlivá detekce, která je ovšem netriviální vzhledem k množství parametrů, které je třeba zohlednit. Tématem disertační práce je výzkum matematických modelů umožňujících návrh algoritmů pro detekci obou zmíněných typů DDOS útoků. Jako perspektivní se aktuálně jeví modely založené kombinaci strojového učení a tradičních analytických statistických metod, které umožňují rychlé předzpracování dat a tím dokáží podstatně zkrátit dobu pro učinění rozhodnutí, která je v případě DDOS útoků zcela zásadní.
Formální verifikace modelů síťové konfigurace
Konfigurace efektivně fungujících počítačových sítí uspořádaných do složitých topologií je v dnešní době považována za netriviální problém. Nezřídka kdy se stává, že změna konfigurace konkrétního prvku v rámci počítačové sítě má vliv i na její další části (např. z hlediska dostupnosti, latence, kvality služeb, atd.). V době aktivace konfigurace však nemusí být její vliv ihned zřejmý a je tudíž vhodné možné účinky konfigurace nejprve verifikovat. Úkolem disertační práce je vývoj algoritmů a metod pro formální verifikaci stavu síťových prvků, které dokáží ještě před samotnou aktivací konfigurace upozornit na potenciální problém.
Paralelní a GPU akcelerované algoritmy pro rekonstrukci fyzikálních objektů ze zaznamenaných dat
Školitel-specialista: doc. Dr. André Sopczak
Softwarová infrastruktura experimentu ATLAS v CERN, vícevláknový framework AthenaMT, je klíčovou technologií umožňující zpracování dat zaznamenaných ze srážek protonů s protony na Velkém hadronovém urychlovači (LHC) v CERN v jeho současné verzi zvané Run-3. Další velká modernizace urychlovače LHC, nazvaná High-Luminosity LHC (HL-LHC), zvýší rychlost srážek přibližně třikrát a bude vyžadovat shromažďování a zpracování až desetkrát většího množství dat než dnes. To bude znamenat nové výzvy pro software a hardware systému ATLAS, který bude v příštích několika letech vyvíjen. Dokument The ATLAS software and computing HL-LHC roadmap [1], zveřejněný 3. března 2022, popisuje řadu konkrétních výzkumných a vývojových úkolů, které je třeba řešit na cestě k dosažení tohoto ambiciózního cíle na všech úrovních architektury. Současný výkon softwaru AthenaMT používaného v experimentu ATLAS je založen na hardwarové infrastruktuře sestávající ze serverových počítačů CERN a celosvětového výpočetního gridu LHC (WLCG), který v současnosti zahrnuje téměř 1 milion procesorových jader. Zpracování dat HL-LHC bude vyžadovat nasazení masivnějšího paralelního hardwaru. Proto bude potřebný výzkum mnohojádrových vícevláknových a GPU algoritmů v různých oblastech zpracování dat HL-LHC.
Cílem této dizertační práce je výzkum masivně paralelních algoritmů a datových struktur potřebných pro rekonstrukci fyzikální objektů, jako jsou fotony, elektrony, miony, tau částice a jety, z dat zaznamenaných různými dílčími detektory. Rekonstrukce by měla určit energii a směry fyzikálních objektů nebo jiné fyzikální parametry. Rekonstrukční algoritmy a odpovídající datové struktury jsou složité, zejména kvůli požadavkům na rychlou a přesnou integraci výstupů z více detektorů do jediné kombinované události a kvůli nutnosti zohlednit měnící se podmínky detektorů. Online rekonstrukce pro zpracování dat z trigrů může potenciálně těžit z nasazení GPU ve farmě trigrů. Dílčím cílem dizertační práce je vyvinout metody pro efektivní offloading algoritmů na heterogenní sady různých akcelerátorů využívajících stejnou kódovou základnu.