Témata dizertačních prací

Níže naleznete témata DP těchto školitelů: doc. Ing. Petr Fišer, Ph.D., prof. Ing. Michal Haindl, DrSc., doc. Ing. RNDr. Martin Holeňa, CSc., prof. Ing. Jan Holub, Ph.D., doc. Ing. Jan Janeček, CSc., doc. Ing. Jan Janoušek, Ph.D., doc. RNDr. Ing. Marcel Jiřina, Ph.D., prof. Dr. Ing. Petr Kroha, CSc., doc. Ing. Hana Kubátová, CSc., prof. Ing. Róbert Lórencz, CSc., prof. Ing. Bořivoj Melichar, DrSc., doc. Ing. Stefan Ratschan, doc. Ing. Jan Schmidt, Ph.D., doc. RNDr. Tomáš Skopal, Ph.D., Ing. Miroslav Skrbek, Ph.D., RNDr. Ing. Vladimír Smotlacha, Ph.D., Ing. Ivan Šimeček, Ph.D., prof. Ing. Pavel Tvrdík, CSc., Dr. Ing. Sven Ubik, doc. Ing. Tomáš Vitvar, Ph.D.

doc. Ing.Petr Fišer, Ph.D.

Školitel: doc. Ing. Petr Fišer, Ph.D.
Pracoviště: ČVUT FIT, Katedra číslicového návrhu (KČN)
Výzkumná skupina: Digital Design & Dependability Research Group
Osobní stránky: https://users.fit.cvut.cz/~fiserp/
Kontakt: petr.fiser@fit.cvut.cz

 

Randomizované iterativní algoritmy v logické syntéze
Název tématu česky: Randomizované iterativní algoritmy v logické syntéze
Název tématu anglicky: Randomized Iterative Algorithms in Logic Synthesis
Anotace česky:
Současné nástroje pro logickou syntézu a optimalizaci (komerční i akademické) z převážné míry kladou důraz na rychlost, na úkor kvality. Nedávný výzkum ukázal, že tyto nástroje mají tendenci uváznout v hlubokých lokálních minimech a často produkují velice suboptimální výsledky (plocha, zpoždění). Jedním z důvodů je deterministická povaha používaných algoritmů. Randomizované iterativní algoritmy se ukázaly být jedním z řešení tohoto problému [1], [2] – nabízejí možnost zlepšit kvalitu řešení za cenu delšího výpočetního času.
Současné studie navíc ukazují, že většina nástrojů pro logickou syntézu a optimalizaci je velice citlivá na „náhodnost“ vnesenou zvnějšku, samotným návrhářem [3], [4]. Syntéza pak při nepatrné změně zdrojového kódu (při zachování funkční ekvivalence) produkuje kvalitativně značně odlišné výsledky. Toto chování není příliš žádoucí. Je tedy záhodno analyzovat toto chování, identifikovat jeho příčiny a navrhnout efektivnější algoritmy.
Cílem výzkumu bude analýza chování dostupných nástrojů (algoritmů) pro logickou syntézu a optimalizaci [5], identifikace příčin výše zmíněného chování, identifikace bodů algoritmu, kam lze explicitně vložit náhodnost a randomizace těchto algoritmů. Bude analyzován vliv náhodnosti a navrženy algoritmy, které vliv náhodnosti minimalizují, případně ji využijí v pozitivním smyslu [1], [2].
Dále mohou být navrženy nové algoritmy, které budou minimálně citlivé na náhodnost zanešenou zvenku, při zachování akceptovatelné výpočetní složitosti.
Anotace anglicky:
Contemporary logic synthesis and optimization tools (both commercial and academic) mostly emphasize computational speed, at expense of result quality. Our resent research has shown, that these tools tend to get stuck in deep local optima, and therefore they often produce very inferior results (in terms of area and/or delay). Randomized iterative algorithms appear to efficiently solve this problem [1], [2] – they offer a trade-off between the run-time and result quality.
Moreover, present studies have shown that most of logic synthesis and optimization tools are very sensitive to randomness accidently introduced “from outside”, by the designer itself [3], [4]. Synthesis then produces results significantly differing in quality, when only slight changes in the source circuit description are made. Such a behavior is highly unwanted. Thus, it is required to analyze this behavior, determine its reasons, and to suggest more efficient algorithms.
The aim of the research is to analyze selected logic synthesis and optimization algorithms [5], identify the reasons of the above-mentioned behavior, and identify points, where randomness can be introduced. The influence of randomness will be then analyzed and algorithms exploiting the randomness in a positive way will be devised [3], [4]. Next, new algorithms minimizing the sensitivity on the external randomness will be developed.
 
References:
[1] P. Fišer and J. Schmidt, "Improving the Iterative Power of Resynthesis," in Proc. of 15th IEEE Symposium on Design and Diagnostics of Electronic Systems (DDECS), Tallinn (Estonia), April 18-20, 2012, pp. 30-33.
[2] P. Fišer and J. Schmidt, "On Using Permutation of Variables to Improve the Iterative Power of Resynthesis," in Proc. of 10th Int. Workshop on Boolean Problems (IWSBP), Freiberg (Germany), September 19-21, 2012, pp. 107-114.
[3] A. Puggelli, T. Welp, A. Kuehlmann, and A. Sangiovanni-Vincentelli, “Are Logic Synthesis Tools Robust?,” in Proc. of  the 48th ACM/EDAC/IEEE Design Automation Conference (DAC), 5-9 June 2011, pp. 633-638.
[4] P. Fišer, J. Schmidt, and J. Balcárek, "On Robustness of EDA Tools," in Proc. of 17th Euromicro Conference on Digital Systems Design (DSD), Verona (Italy), August 27-29, 2014, pp. 427-434.
[5] Berkeley Logic Synthesis and Verification Group, “ABC: A System for Sequential Synthesis and Verification” [Online]. Available: http://www.eecs.berkeley.edu/alanmi/abc/.

 

Komprese testu pro ASIC obvody

Název tématu česky: Komprese testu pro ASIC obvody
Název tématu anglicky:
Test Compression for ASIC Circuits
Anotace česky:
Se stále zvyšujícím se počtem tranzistorů na čipu se také zvyšuje počet vektorů potřebných pro testování čipu. Integrované obvody jsou poprvé testovány při výrobě, před zapouzdřením. Zde jsou testovací vektory generovány tzv. ATE (Automated Test Equipment) zařízením a přenášeny do čipu. Množství dat je zde obrovské, paměť v ATE je extrémně drahá, to samé platí o době testu. Je tudíž nutné tato data komprimovat. Dle International Technology Roadmap for Semiconductors (ITRS) [1] je požadováno, aby v roce 2020 bylo dosahováno kompresního poměru 20 000. Bohužel, současné kompresní techniky se ani zdaleka neblíží tomuto poměru. Je tedy zapotřebí intenzivního výzkumu v této oblasti a pokoušet se překonat stávající kompresní techniky.
Bylo navrženo mnoho kompresních technik, některé se používají v průmyslové praxi [2]. Většina z nich je založená na kombinaci pseudo-náhodného testu (který může být implementován na čipu) a deterministického testu. Deterministické vektory jsou algoritmicky zkomprimované a uložené v ATE a posléze dekomprimované na čipu.
Cílem doktorského studia bude navrhnout nové metody pro kompresi a dekompresi testu pro pokročilé DFT architektury [3]. To bude zahrnovat návrh nových dekompresních architektur, algoritmů pro kompresi testu a návrh celkové HW architektury.
Tento výzkum bude volně navazovat na právě dokončovanou doktorskou práci [4].
Anotace anglicky:
With the increasing complexity of presently manufactured chips, increasingly more data must be delivered to individual chip cores to test them. Compression of this data becomes now inevitable, because of expensiveness of the ATE memory and test time expenses. According to International Technology Roadmap for Semiconductors (ITRS) [1], test data compression ratio of 20,000 is required in the year 2020. Presently, commercial tools do not even approach this compression requirements. Therefore, it is very challenging to contribute to the research in the area of test compression and to try to overcome established industrial tools in performance.
Different test compression mechanisms have been proposed, some of them are used in industry [2]. Most of them rely on a combination of pseudo-random testing (and possibly BIST), which can be implemented on-chip as whole and does not need any data to be transmitted, and deterministic test. The deterministic test is algorithmically compressed, stored in the ATE memory, and decompressed on-chip.
The aim of the research is to design test compression/decompression methods based on advanced design-for-testability (DFT) architectures [3]. This will comprise of a design of possibly novel decompression architectures, algorithms for test compression for these architectures, and design of the overall HW architecture, where test decompression, BIST and various DFT features will be implemented.
This research will be follow up the research conducted until now (finishing Ph.D. student) [4].
 
References:
[1] International Technology Roadmap for Semiconductors, http://public.itrs.net/
[2] J. Rajski et al. "Embedded Deterministic Test", IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems , vol. 23, no. 5, pp. 776-792, 2004.
[3] R. Dorsch, H. Wunderlich, "Reusing Scan Chains for Test Pattern Decompression", Journal of Electronic Testing: Theory and Applications, vol. 18, no. 2, pp. 231-240, 2002.
[4] J. Balcárek, P. Fišer, and J. Schmidt, "Techniques for SAT-based Constrained Test Pattern Generation," in Microprocessors and Microsystems, Elsevier, Vol. 37, Issue 2, March 2013, pp. 185-195.

 

Zdokonalení řízení procesu logické syntézy a optimalizace

Název tématu česky:
Zdokonalení řízení procesu logické syntézy a optimalizace
Název tématu anglicky:
Improvements in the Logic Synthesis and Optimization Process Control
Anotace česky:
Současné nástroje pro logickou syntézu a optimalizaci (komerční i akademické) z převážné míry kladou důraz na rychlost, na úkor kvality. Nedávný výzkum ukázal, že tyto nástroje mají tendenci uváznout v hlubokých lokálních minimech a často produkují velice suboptimální výsledky (plocha, zpoždění). Jedním z důvodů je deterministická povaha používaných algoritmů. Randomizace algoritmů [1], [2] se ukázala být pouze částečným řešením tohoto problému. Druhým, důležitějším důvodem, je chybějící řízení syntézních algoritmů na nejvyšší úrovni. Současná logická syntéza je většinou iterativní proces, ve kterém se jednotlivé syntézní kroky spouštějí spekulativně. Zavedení pokročilejších technik řízení by mohlo značně vylepšit celý syntézní proces.
Cílem výzkumu je prozkoumat chování jednotlivých kroků logické syntézy (např. v nástroji ABC [3]), zjistit jejich závislost a ortogonalitu a navrhnout algoritmus pro efektivní řízení celého procesu.
Anotace anglicky:
Contemporary logic synthesis and optimization tools (both commercial and academic) mostly emphasize computational speed, at expense of result quality. Our resent research has shown, that these tools tend to get stuck in deep local optima, and therefore they often produce very inferior results (in terms of area and/or delay). One of the reasons for it is a deterministic nature of the algorithms. Randomization of the algorithms has been found to be a viable, but just partial solution to this problem [1], [2]. The second, and more important reason of failure is the lack of global algorithm control. Most of present logic synthesis and optimization algorithms are of an iterative nature, whereas their individual parts (elementary operations) are executed essentially ad-hoc and speculatively. Implementation of efficient top-level algorithm control means should significantly improve performance of logic synthesis and optimization.
The aim of the research is to investigate the behavior of individual elementary synthesis steps (e.g., in the ABC synthesis tool [3]), determine their dependence and orthogonality, and devise an improved overall algorithm control.
 
References:
[1] P. Fišer and J. Schmidt, "Improving the Iterative Power of Resynthesis," in Proc. of 15th IEEE Symposium on Design and Diagnostics of Electronic Systems (DDECS), Tallinn (Estonia), April 18-20, 2012, pp. 30-33.
[2] P. Fišer and J. Schmidt, "On Using Permutation of Variables to Improve the Iterative Power of Resynthesis," in Proc. of 10th Int. Workshop on Boolean Problems (IWSBP), Freiberg (Germany), September 19-21, 2012, pp. 107-114.
[3] Berkeley Logic Synthesis and Verification Group, “ABC: A System for Sequential Synthesis and Verification” [Online]. Available: http://www.eecs.berkeley.edu/alanmi/abc/.

prof. Ing. Michal Haindl, DrSc.

Školitel: prof. Ing. Michal Haindl, DrSc.
Pracoviště: ČVUT FIT
Osobní stránky: http://staff.utia.cas.cz/haindl/PR/mha.html
Kontakt: haindl@utia.cas.cz, +420 266 052 350

 

Modelování vizuálních vlastností povrchu materiálů
Název tématu česky: Modelování vizuálních vlastností povrchu materiálů
Název tématu anglicky: Modelling of visual surface material properties
Anotace česky: Vzhled reálných materiálů se významně mění se změnou osvětlení a pohledu. Proto současné nejvyspělejší texturní reprezentace vyžadují modelovat odrazivost v širokém rozsahu parametrů osvětlení a umístění kamery pomocí složitých matematických modelů. Cílem práce bude vyvinout a ověřit nový BTF model založený na teorii markovských náhodných polí, který zlepší současný stav fyzikálně správného modelování povrchů materiálů.
Anotace anglicky: The appearance of real materials dramatically changes with illumination and viewing variantions. Thus the recent most advanced texture representation requires to model surface reflectance in a wide range of light and camera positions using non-trivial mathematical models. The theisis objective will be to develop and verify a new markov random field based BTF model which will further advance the BTF modelling accuracy.

 

Analýza vizuálních vlastností materiálů

Název tématu česky: Analýza vizuálních vlastností materiálů
Název tématu anglicky: Analysis of visual materials properties
Anotace česky: Cílem práce je analyzovat vnímání materiálů za proměnných světelných a pozorovacích podmínek. Práce bude mít za úkol nalezení vhodných statických i dynamických vizuálních stimulů a jejich realtivního významu pro lidské vnímání a rozpoznávání odlišných materiálů.
Anotace anglicky: The objective is to analyse human visual sensing of materials in variable illumination and observation conditions. The work will aim at discovery of adequate static and dynamic visual stimuli and their relative weight responsible for human perception and recognition of various surface materials.
Název tématu česky: Neřízená segmentace dynamických obrazů
Název tématu anglicky: Unsupervised dynamic image sgmentation
Anotace česky: Cílem práce je kriticky zhodnotit současný stav neřízené segmentace obrazových dat a vyvinutí algoritmu pro neřízenou segmentaci dynamických barevných / multispektrálních / hloubkových obrazů do jednotlivých homogenních oblastí. Algoritmus bude založen na vícerozměrných markovských modelech a testován na PTSB benchmarku. 
Anotace anglicky: The objective is to survey recent state-of-the-art of unsupervised image segmentation and to develop an unsupervised segmenter for dynamic colour, multispectral, or range data into homogenous regions. The method will be based on the underlying multidimensional Markovian models and verified on the PTSB benchmark. 

 

Automatické odhadování tvaru z videa

Název tématu česky: Automatické odhadování tvaru z videa
Název tématu anglicky: Automatic shape estimation from video
Anotace česky: Práce je zaměřena na studium metod rozpoznávání a modelování tvaru těles z videozáznamu pro aplikace virtuální reality. Navrhněte a implementujte v programovacím jazyce C++ vhodnou metodu automatického odhadování 3D modelu z naměřených dat pomocí videokamery. Ověřte metodu na vybraných modelech budov.
Anotace anglicky: The thesis objedtive is to study shape recognition and modelling methods from hand held video sequences targeted for virtual reality application.s Propose and implement (in C++) and appropriate method for automatic 3D shape inference from hand held video sequences. Verify this method on selected budildings models.

 

Měření vzhledu materiálu na reálných objektech

Název tématu česky: Měření vzhledu materiálu na reálných objektech
Název tématu anglicky: Material appearance measuring on real objects
Anotace česky: Práce je zaměřena na studium metod odhadu pokročilých reprezentací vizuálních vlastností povrchových materiálů (BTF, SVBRDF) přímo měřením 3D objektu v přirozeném osvětlení. Navrhněte a implementujte v programovacím jazyce C++ vhodnou metodu automatického odhadování vizuální reprezentace povrchového materiálu z naměřených dat pomocí videokamery. Ověřte metodu na vybraných povrchových materiálech.
Anotace anglicky: The thesis objective is to propose acquisition methods, capable to estimate advanced visual material representations (BTF, SVBRDF) directly from a real 3D object in natural lighting environment. Propose and implement (in C++) an appropriate method for automatic visual surface material inference from hand held video sequences. Verify this method on the selected surface materials.

 

Modelování osvětlení z naměřené vizuální scény

Název tématu česky: Modelování osvětlení z naměřené vizuální scény
Název tématu anglicky: Light field estimation from visual scene
Anotace česky: Práce je zaměřena na studium metod modelování osvětlení z naměřené obrazové informace pro aplikace modelování BTF textur v modelech virtuální reality. Navrhněte a implementujte v programovacím jazyce C++ vhodnou metodu tvorby osvětlení z naměřených obrazových dat. Ověřte metodu na modelu osvětlení interiéru a exteriéru při proměnném osvětlení
Anotace anglicky: The thesis objective is to study environmental light field modelling methods from measured visual scenes applied to correct BTF illumination in virtual reality application. Propose and implement (in C++) an appropriate method for realistic illumination model estimated from real measured visual scenes. Verify this method on interior and exterior virtual reality models with variable illumination.

 

Rozpoznávání rakoviny kůže a monitorování pokroku léčby

Název tématu česky

Rozpoznávání rakoviny kůže a monitorování pokroku léčby
Název tématu anglicky: Skin Cancer Detection and  Treatment Progress Monitoring 
Anotace česky: Melanom kůže, jako nejnebezpečnější forma rakoviny kůže, je rostoucím nebezpečím v posledních desetiletích díky svému stále zvyšujícímu se výskytu. Jeho efektivní léčba vyžaduje jeho rozpoznání a chirurgické odstranění v co nejranější fázi. Cílem práce je nalezení diskriminativních obrazových příznaků a vhodného klasifikátoru, který umožní rozpoznání rakoviny kůže z barevných obrazů kůže a zároveň umožní monitorování pokroku léčby ze sekvence časově proměnných obrazů nádoru. 
Anotace anglicky: Malignant melanoma, as the most dangerous form of skin cancer, has been a rapidly growing threat over the past decades. The effective treatment requires its early diagnoses and surgical excision.   The thesis objective is to find discriminative image features and a robust classifier which will allow to recognize skin cancer on colour skin images and to evaluate a treatment progress between several mutitemporal skin images. 

 

doc. Ing. RNDr. Martin Holeňa, CSc.

Školitel: doc. Ing. RNDr. Martin Holeňa, CSc.
Pracoviště: AS CR, Institute of Computer Science, Department of Theoretical Computer Science
Výzkumná skupina: Computational Intelligence Group
Osobní stránky: http://www2.cs.cas.cz/~martin/
Kontakt: martin@cs.cas.cz, +420 266 052 921

 

Využití aktivního učení v optimalizaci

Název tématu česky:

Využití aktivního učení v optimalizaci
Název tématu anglicky: Making use of active learning in optimization
Anotace česky:

Evoluční algoritmy jsou v posledních 20 letech jednou z nejúspěšnějších metod pro řešení netradičních optimalizačních problémů, jako např. hledání nejvhodnějších dokumentů obsahujících požadované informace, objevování nejzajímvějších informací v dostupných datech či další typy optimalizačních úloh, při nichž lze hodnoty cílové funkce získat pouze empiricky. Protože evoluční algoritmy pracují pouze s funkčními hodnotami optimalizované funkce, blíží s k jejímu optimu podstatně pomaleji než optimalizační metody pro hladké funkce, které využívají rovněž informace o gradientu optimalizované funkce, případně o jejích druhých derivacích. Tato vlastnost evolučních algoritmů je zvláště nepříjemná ve spojení se skutečností, že empirické získání hodnoty optimalizované funkce bývá obvykle značně nákladné i časově náročné. Evoluční algoritmy však lze podstatně urychlit tím, že při vyhodnocování funkční hodnoty optimalizované funkce používají empirickou optimalizovanou funkci jen občas, zatímco většinou vyhodnocují pouze její dostatečně přesný regresní model. Právě přesnost modelu určuje, jak úspěšnou náhražkou původní empirické funkce bude. Proto se po získání každé nové generace bodů, v nichž byla empirická funkce vyhodnocena, model zpřesňuje opakovaným učením zahrnujícím tyto body. Lze však jít ještě dále a již při volbě bodů pro empirické vyhodnocení brát kromě hodnoty empirické funkce také v úvahu, jak při opakovaném učení modelu přispějí k jeho zpřesnění. Takový přístup se označuje jako aktivní učení. Používání aktivního učení k urychlení evolučních algoritmů je však teprve v úplných začátcích a měla by ho podpořit i navržená práce.

Anotace anglicky:
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and time-consuming empirical way of obtaining values of the objective function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function. It is the accuracy of the model that determines how successful surrogate of the original empirical function it will be. Therefore, the model is made more accurate after obtaining each new generation of points in which the empirical function has been evaluated, through re-learning including those points. However, it is possible to go even further and to consider, when choosing points for empirical evaluation, besides the value of the empirical function also how they contribute, during model re-learning, to making it more accurate. Such an approach is termed active learning. However, using active learning to accelerate evolutionary algorithms is only at a very beginning, and should be supported also by the proposed thesis.

 

Objevování zajímavých znalostí v datech pomocí evolučních algoritmů

Název tématu česky: Objevování zajímavých znalostí v datech pomocí evolučních algoritmů
Název tématu anglicky: Discovery of interesting knowledge in data by means of evolutionary algorithms
Anotace česky:

K nejrychleji se rozvíjejícím informačním technologiím patří od první poloviny 90. let dobývání znalostí z dat (data mining). Pod tímto názvem se skrývají metody, které z nepřehledné spousty primárních dat, s níž se dnes člověk musí prakticky ve všech oblastech potýkat,  umožňují extrahovat přehledné množiny strukturovaných znalostí, v těchto datech latentně obsažených. Jedním z nejpoužívanějších způsobů strukturovaného vyjádření znalostí obsažených v datech jsou specifické typy logických tvrzení, tzv. pravidla. Dnes již existuje několik desítek metod pro extrakci pravidel z dat, pomocí nichž lze často získat velmi rozsáhlé soubory velmi rozmanitých pravidel. Tím se ztrácí původní účel dobývání znalostí z dat – nahradit velké množství  dat malým množstvím důležitých znalostí. Z pravidel, která lze v datech nalézt, je proto nutné vybírat pouze ta, která jsou nejzajímavější nebo z nějakého jiného hlediska nejdůležitější. To vede na úlohu optimalizace na množině pravidel, tedy na diskrétní množině která neleží v žádném běžném metrickém prostoru.  K nejmodernějším metodám, které se pro optimalizaci na takových množinách používají, patří evoluční algoritmy, zejména jeden jejich typ - genetické algoritmy. Jejich charakteristickým rysem je, že způsob, kterým se metoda přibližuje k hledanému optimu, je inspirován přirozeným výběrem ve vývoji biologických druhů, v případě genetických algoritmů potom speciálně mutacemi a křížením chromozomů. Právě využití genetických algoritmů k optimalizaci získávání pravidel z dat by mělo být náplní navržené práce.

Anotace anglicky:
Since the early 1990s, data mining belongs to the most quickly developing information technologies. This term covers methods that allow to extract, from unsurveyable amounts of primary data that one has to tackle in nearly all areas, surveyable sets of structured knowledge latently contained in those data. One of the most frequently used ways of a structured representation of knowledge contained in data are specific kinds of logical sentences, called rules. Nowadays, already several dozens of methods for rules extraction from data exist, by means of which very vast sets of very different rules can frequently be obtained. In this way, the original objective of data mining gets lost: to replace a large amount of data with a small amount of important knowledge. Therefore, it is necessary to choose only those from among the rules that can be found in the data that are the most interesting, or from some other point of view the most important. That leads to an optimization task on the set of rules, thus on a discrete set not lying in any common metric space. The most modern methods used for optimization on such sets include evolutionary algorithms, especially one kind of them genetic algorithms. A characteristic feature of evolutionary algorithms is that the way in which the method approaches the sought optimum has been inspired by the natural selection in the evolution of biological species, in the case of genetic algorithms then in particular by mutations and recombinations of chromosomes. It is the use of genetic algorithms for the opimization of obtaining rules from data that should be the topic of the proposed thesis.

 

Urychlení evoluční optimalizace pomocí gaussovských procesů

Název tématu česky:

Urychlení evoluční optimalizace pomocí gaussovských procesů
Název tématu anglicky: Accelerating evolutionary optimization by means of Gaussian processes
Anotace česky:

Evoluční algoritmy jsou v posledních 20 letech jednou z nejúspěšnějších metod pro řešení netradičních optimalizačních problémů, jako např. hledání nejvhodnějších dokumentů obsahujících požadované informace, objevování nejzajímvějších informací v dostupných datech či další typy optimalizačních úloh, při nichž lze hodnoty cílové funkce získat pouze empiricky. Protože evoluční algoritmy pracují pouze s funkčními hodnotami optimalizované funkce, blíží s k jejímu optimu podstatně pomaleji než optimalizační metody pro hladké funkce, které využívají rovněž informace o gradientu optimalizované funkce, případně o jejích druhých derivacích. Tato vlastnost evolučních algoritmů je zvláště nepříjemná ve spojení se skutečností, že empirické získání hodnoty optimalizované funkce bývá obvykle značně nákladné i časově náročné. Evoluční algoritmy však lze podstatně urychlit tím, že při vyhodnocování funkční hodnoty optimalizované funkce používají empirickou optimalizovanou funkci jen občas, zatímco většinou vyhodnocují pouze její dostatečně přesný regresní model. K nejslibnějším regresním modelům patří modely založené na gaussovských procesech. Není proto divu, že právě ony patřily k prvním, které se pro urychlení evoluční optimalizace začaly používat. Přesto je výzkum urychlování evolučních algoritmů pomocí gaussovských procesů teprve v začátcích. Příspěvkem k němu by měla být i navržená práce.

Anotace anglicky:
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization  problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and timeconsuming empirical way of obtaining values of the
objective  function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function.  Among most promising regression models are models based  on Gaussian processes.  Therefore, it is not surprising that exactly these models belonged  among the first that started to be used for accelerating evolutionary optimization. Nevertheless, research into accelerating evolutionary algorithms by means of Gaussian processes is only at a beginning. It should be contributed also by the proposed thesis. 

 

Urychlení evoluční optimalizace pomocí neparametrické regrese

Název tématu česky: Urychlení evoluční optimalizace pomocí neparametrické regrese
Název tématu anglicky: Accelerating evolutionary optimization by non-parametric regression
Anotace česky: Evoluční algoritmy jsou v posledních 20 letech jednou z nejúspěšnějších metod pro řešení netradičních optimalizačních problémů, jako např. hledání nejvhodnějších dokumentů obsahujících požadované informace, objevování nejzajímavějších znalostí v dostupných datech, či další typy optimalizačních úloh, při nichž lze hodnoty cílové funkce získat pouze empiricky. Protože evoluční algoritmy používají pouze funkční hodnoty cílové funkce, blíží s k jejímu optimu mnohem pomaleji než optimalizační metody pro hladké funkce, které využívají rovněž informace o gradientu cílové funkce, případně i o jejích druhých derivacích. Tato vlastnost evolučních algoritmů je zvláště nevýhodná v kontextu nákladného a časově náročného empirického způsobu získávání hodnot cílové funkce. Evoluční algoritmy však lze podstatně urychlit, jestliže při vyhodnocování funkčních hodnot cílové funkce používají empirickou cílovou funkci jen občas, zatímco většinou vyhodnocují pouze dostatečně přesný regresní model této funkce. Většina regresních modelů je vybírána z rodin funkcí parametrizovaných konečným počtem předem daných parametrů, např. lineární regrese, polynomiální regrese, regrese založená na jádrových funkcích nebo na některých typech umělých neuronových sítí. Díky růstu výkonnosti počítačů však v posledních dvou desetiletích získaly značný význam i modely neparametrické. Ty jsou výpočetně náročnější, ale také flexibilnější a díky tomu univerzálnější. Jejich nejtradičnějším často používaným zástupcem jsou zobecněné aditivní modely. Výzkum využitelnosti neparametrických regresních modelů k urychlení evoluční optimalizace empirických funkcí je však teprve na samém počátku. Přispět by k němu měla i navržená diplomová práce.
Anotace anglicky:
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization  problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and timeconsuming empirical way of obtaining values of the objective  function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function. Most of the regression models are selected from families of functions parametrized with a finite number of parameters given in advance, e.g., linear regression, polynomial regression, regression based on kernel functions or on some kinds of neural networks. Due to increasing power of computers, however, also non-parametric models have been gaining importance during the last two decades. They are computationally  more demanding, but also more flexible, and therefore more universal. Their most traditional frequently employed representative are generalized additive models. Investigation into utilizability of non-parametric regression models for speeding up evolutionary optimization of  empirical functions is, however, only at its very beginning. It should be contributed also by the proposed thesis. 

 

Urychlení evolučních algoritmů pomocí náhodných lesů

Název tématu česky: Urychlení evolučních algoritmů pomocí náhodných lesů
Název tématu anglicky: Accelerating evolutionary algorithms by random forests
Anotace česky:

Evoluční algoritmy jsou v posledních 20 letech jednou z nejúspěšnějších metod pro řešení netradičních optimalizačních problémů, jako např. hledání nejvhodnějších dokumentů obsahujících požadované informace, objevování nejzajímvějších informací v dostupných datech či další typy optimalizačních úloh, při nichž lze hodnoty cílové funkce získat pouze empiricky. Protože evoluční algoritmy pracují pouze s funkčními hodnotami optimalizované funkce, blíží s k jejímu optimu podstatně pomaleji než optimalizační metody pro hladké funkce, které využívají rovněž informace o gradientu optimalizované funkce, případně o jejích druhých derivacích. Tato vlastnost evolučních algoritmů je zvláště nevýhodná v kontextu nákladného a časově náročného empirického způsobu získávání hodnot cílové funkce. Evoluční algoritmy však lze podstatně urychlit, jestliže při vyhodnocování funkčních hodnot cílové funkce používají empirickou cílovou funkci jen občas, zatímco většinou vyhodnocují pouze dostatečně přesný regresnímodel této funkce. Jednoduchý, ale často používaný typ regresních modelů je specifický typ rozhodovacích stromů, tzv. regresní stromy. Od počátku minulého desetiletí se věnuje pozornost také vytváření kombinací rozhodovacích stromů, tzv. náhodných lesů. Výzkum využitelnosti náhodných lesů k urychlení evoluční optimalizace empirických funkcí je však teprve na samém počátku. Přispět by k němu měla i navrhovaná práce.

Anotace anglicky:
Evolutionary algorithms are, in the last 20 years, one of the most successful methods for solving non-traditional optimization  problems, such as search for the most suitable documents containing required information, discovery of the most interesting knowledge in available data, or other kinds of optimization tasks in which the values of the objective function can be obtained only empirically. Because evolutionary algorithms employ only function values of the objective function, they approach its optimum much more slowly than optimization methods for smooth functions, which make use of information about the objective function gradients as well, possibly also about its second derivatives. This property of evolutionary algorithms is particularly disadvantageous in the context of costly and time-consuming empirical way of obtaining values of the objective  function. However, evolutionary algorithms can be substantially speeded up if they employ the empirical objective function only sometimes when evaluating objective function values, whereas they mostly evaluate only a sufficiently accurate regression model of that function.  A simple but frequently encountered kind of regression models is based on decision trees, it is referred to as regression trees, called random forests. Investigation into utilizability of random forests for speeding up evolutionarz optimization of empirical functions is, however, only at its very beginning. It should be contributed also bz the proposed thesis

 

Týmy klasifikátorů pro multimediální data 

Název tématu česky: Týmy klasifikátorů pro multimediální data 
Název tématu anglicky: Teams of classifiers for multimedia data
Anotace česky:
Konstrukce týmů klasifikátorů je jedním z hlavních moderních směrů výzkumu v oblasti klasifikace, který se začal plně rozvíjet teprve s běžnou dostupností výkonné výpočetní techniky. Týmová klasifikace umožňuje, aby se jednotlivé klasifikátory specializovaly na ty části vstupních dat, pro které mají nejlepší predikční schopnosti. Klíčovou roli přitom hraje algoritmus agregace výsledků jednotlivých členů týmu, který má vliv nejenom na to, jak se jejich predikční přesnost přenáší do přesnosti celého týmu, ale i na interpretaci výsledné týmové klasifikace. Pro výslednou přesnost celého týmu i pro interpretaci týmové klasifikace je v agregačním algoritmu užitečné zohlednit specifické vlastnosti vstupních dat. 
Jednou z oblastí, kde je použití týmu klasifikátorů velmi výhodné, je klasifikace multimediálních dat, neboť pro každou jejich modalitu jsou vhodné jiné typy klasifikátorů. Týmová klasifikace se však v této oblasti donedávna používala převážně heuristickým způsobem. Systematický výzkum, který umožní vhled do souvislostí mezi vlastnostmi multimediálních dat a jejich jednotlivých modalit s chováním použitého týmu klasifikátorů, je teprve v začátcích. Přispět by k němu měla i navrhovaná dizertace. Předpokládá zájem o multimediální data, ale i o strojové učení a statistické metody. Tvůrčí práce s dizertací spojená bude na hranici těchto tří oblastí.
 
Anotace anglicky:
Construction of teams of classifiers is one of main research directions in the area of classification, it started to fully develop only with the common availability of performant computers. Team classification enables to specialize individual classifiers to those parts of input data for which they have the best predictive ability. A key role is played by the algorithm aggregating classification results, which influences not only the transfer of their predictive accuracy to the accuracy of the whole team, but also the interpretation of resulting classification by the team. For the resulting accuracy of the whole team, as well as for the interpretation of team classification, it is useful to take into account specific properties of input data when constructing the aggregation algorithm. 
One area where using a team of classifiers is very advantageous is classification of multimedia data because for each of their modalities, other kinds of classifiers are appropriate. Until recently, however, team classification was used mainly in a heuristic way in this area. A systematic research that will enable an insight into the connections of properties of multimedia data and their individual modalities with the behaviour of classifier team is only at its beginning. Contribute to it should also the proposed dissertation. Its precondition is interest in multimedia data, but also in machine learning and statistical methods. The creative work connected with the dissertation will be at the crossing of these three areas.

 

Pokročilé metody evoluční black-box optimalizace

Název tématu česky: Pokročilé metody evoluční black-box optimalizace 
Název tématu anglicky: Advanced methods of evolutionary black-box optimization
Anotace česky:
Optimalizační úlohy, se kterými se setkáváme v reálných aplikacích, stále častěji optimalizují cíle, kterými nejsou matematické funkce, ale výsledky počítačových simulací nebo experimentálních měření. Tento druh optimalizace, označovaný jako black-box optimalizace, představuje dvě velké výzvy: 1. lze získat pouze hodnoty takového black-box cíle, nikoliv jeho gradient nebo vyšší derivace, 2. vyhodnocení cíle je typicky časově náročné a/nebo drahé. Pokud jde o první výzvu, v uplynulých desetiletích se velmi úspěšnými při otimalizaci používající pouze hodnoty cíle ukázaly být evoluční algoritmy. Ty však typicky vyžadují velké množství vyhodnocování, což je  v konfliktu s druhou výzvou. Tento konflikt v uplynulém desetiletí podnítil intenzivní výzkum evoluční black-box optimalizace, který s sebou přináší široké spektrum dizertabilních témat.
Anotace anglicky:
Optimization tasks encountered in real-world applications more and more frequently optimize objectives that are not mathematically calculated functions, but results of computer simulations or experimental measurements. That kind of optimization, called black-box optimization, presents two great challenges: 1. it is possible to get only the values of such a  black-box objective, not its gradient or higher derivatives, 2. the evaluation of the objective typically costs much time and/or money. As far as the first challenge is concerned, evolutionary algorithms have proven very successful for optimization using only the values of the objective during the last decades. However, they typically require a large number of evaluations, which conflicts with the second challenge. That conflict incited an intense reseaech into black-box evolutionary optimization during the last decade, bringing a broad spectrum of topics suitable for PhD theses.
 

 

prof. Ing. Jan Holub, Ph.D.

Školitel: prof. Ing. Jan Holub, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina: The Prague Stringology Club
Osobní stránky: http://www.stringology.org/~holub/
Kontakt: jan.holub@fit.cvut.cz, +4202 2435 9814

 

Komprese XML dat

Název tématu česky: Komprese XML dat
Název tématu anglicky: XML data compression
Anotace česky: Cílem práce je nalézt efektivnější metody pro uchovávání dat ve formátu XML.
Tyto metody musí zajistit i snadný a rychlý přístup k uloženým datům.
Anotace anglicky: The goal of the project is to find more efficient methods for storing
data in XML format. Those methods should have to provide easy and fast
access to stored data as well.

 

Indexování dat pro Bioinformatiku

Název tématu česky:

Indexování dat pro Bioinformatiku
Název tématu anglicky: Data Indexing for Bioinformatics
Anotace česky: Cílem práce je nalézt efektivnější metody pro uchovávání a vyhledávání dat pro různé úlohy v bioinformatice.
Anotace anglicky: The goal of the project is to find more efficient methods for storing and indexing data for various tasks in Bioinformatics.

 

Komprese přirozeného jazyka

Název tématu česky: Komprese přirozeného jazyka
Název tématu anglicky: Natural Language Compression
Anotace česky: Cílem práce je nalézt efektivnější metody pro kompresi přirozeného jazyka na základě částečných znalostí jazyka.
Anotace anglicky: The goal of the project is to find more efficient methods for compression of natural language using a partial knowledge of the language.

 

doc. Ing. Jan Janeček, CSc.

Školitel: doc. Ing. Jan Janeček, CSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: Distributed Systems
Osobní stránky:

  http://cs.felk.cvut.cz/webis/people/janecek.html

Kontakt: jan.janecek@fit.cvut.cz, +42022435 7267

 

Dynamika v distribuovaných aplikacích

Název tématu česky: Dynamika v distribuovaných aplikacích
Název tématu anglicky: Dynamism in distributed applications
Anotace česky: Cílem projektu je vyrovnat se jednak s poziční mobilitou a jednak s výraznější proměnnou vazbou v systémech se sensory, prostřednictvím distribuované aplikace řízenými prvky a přístupovými zařízeními uživatelů.
 
Anotace anglicky: The main goal of the project is to solve the problem of increasing changes of the elements´ position localities in distributed applications that are including sensors, remotely controled elements and clients´ devices of the users.

 

NNA sítě

Název tématu česky: NNA sítě
Název tématu anglicky: Networking Named Areas
Anotace česky: CCA sítě vytvářejí architekturu Internetu budoucnosti podporující násobné a mobilní pozice pro servery, nebo obecně procesy distribuovaných aplikací. Cílem projektu je návrh a ověření efektivity funkčně limitovaných sítí založených na modelech CCN (Content-Centric networking).
 
Anotace anglicky: The CCA networks create an Internet technology of the future, which is supporting multiple and mobile servers, or generally distributed application processes. The goal of the project is a design and efficiency evaluation of application limited networks based on CCN (Content-Centric Networking) models.

 

Efektivní podpora distribuovaných aplikací s mikropočítači

Název tématu česky: Efektivní podpora distribuovaných aplikací s mikropočítači
Název tématu anglicky: Effective support for distributed applications with microcontrollers
Anotace česky: Cílem projektu je zefektivnit přístup k datům získaným senzory a k distribuci dat výkonovým prvkům v distribuovaných aplikacích. Projekt může vyjít z našeho vývoje založeného na technologii SOAP s poměrně vysokými nároky na stranu serverů, kde byl výsledkem nástroj opřený o popis rozhraní ve WSDL vytvořený z rozhraní aplikace, a o jeho převod do formy opírající se o skupinu konečných automatů realizovatelných i na relativně malém mikropočítači. Výsledky SOAP cesty byly námi sice již publikovány na konferencích IEEE a IASTEID, současné technologie se však opírají o nové popisy, jako WALD, jejichž začlenění do obdobných řešení může být přínosné.
 
Anotace anglicky: The goal of the project is to increase effectiveness of the access to servers´ data and of the distribution of commands to controlled elements. The solution of the project may start with the WSDL file we obtain for SOAP applications with WSDL servers, which generally require high power of computation. We developed and published (IEEE and IASTED conferences) based in the group of finite state automata able to work at small microcontrollers. The goal of the current project could be started with development of the solution able to reduce computation power of sensors and controlled elements, and the required communication capacity as well

 

Applications' development for IoT systems 

Název tématu česky: Applications' development for IoT systems 
Název tématu anglicky: Metody vývoje aplikací pro IoT systémy 
Anotace česky:
Výrazně se rozvíjejíci oblast IoT (Internet of Things) klade odlišné požadavky na vývoj a modifikace programů jejích mobilních a ne vždy přímo dostupných prvků. Technologie přípravy a distribuce programů, vyhovující ve statických distribuovaných systémech, jednoduchých aplikací kategorie klient/server a v clouds systémech přestávají dostačovat.  Cílem výzkumné oblasti je návrh, vzorová implementace a ověření metod, které potřebné požadavky podpoří. 
Anotace anglicky:
Significantly increasing area of IoT (Internet of Things) places different requirements on programs' development and modification of their mobile and not always directly accessible elements. Technologies satisfactory in static distributed systems, in simple applications of the client/server category, and in the clouds computing, cease to be sufficient. The aim of the research area is the design and verification of implementation tools needed to support IoT applications. 

 

Adresační algoritmy pro IoT systémy 

Název tématu česky: Adresační algoritmy pro IoT systémy  
Název tématu anglicky: Addressing algorithms in IoT systems  
Anotace česky:
Výrazně se rozvíjejíci oblast IoT (Internet of Things) musí respektovat standardy adresace v Internetu, bezdrátových přístupových kanálech a standardy jednoznačné identifikace prvků v technologiích řízení a v IoT technologiích. Návrh výzkumného řešení se může principiálně opřít o P2P adresní databázi opírající se o dřívější řešení založené na Chord DHT technologii. Cílem výzkumné oblasti je návrh, vzorová iplementace a ověření metody pro zajištění komunikace v IoT systémech s mobilními prvky.
Anotace anglicky:
Significantly developing area of IoT (Internet of Things) has to respect standards of addressing in Internet, wireless access channels and unambiguous standard identifications of elements in  control and IoT technologies. The research solutions can rely on the P2P-based address database the former solution based on the Chord DHT technology. The aim of the research area is the design and verification of method that ensure communication in IoT systems with mobile elements. 

 

doc. Ing. Jan Janoušek, Ph.D.

Školitel: doc. Ing. Jan Janoušek, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina: The Prague Stringology Club
Osobní stránky: https://users.fit.cvut.cz/~janousej/
Kontakt: janousej@fit.cvut.cz

 

Zpracování stromových struktur

Název tématu česky: Zpracování stromových struktur
Název tématu anglicky: Processing Tree Data Structures
Anotace česky:

Seřazené a neseřazené stromy. Vyhledávání, indexování, další typy zpracování. Přesné a přibližné.

Anotace anglicky:

Ordered and unordered trees. Pattern matching, indexing and other types of processing.

Processing exactly and approximately

 

doc. RNDr. Ing. Marcel Jiřina, Ph.D.

Školitel: doc. RNDr. Ing. Marcel Jiřina, Ph.D.
Pracoviště: ČVUT FIT
Pracoviště: Katedra teoretické informatiky FIT ČVUT, Proděkan pro vědu a výzkum
Osobní stránky: https://usermap.cvut.cz/profile/jirinmar/
Kontakt: marcel.jirina@fit.cvut.cz

 

Analýza prostorových obrazových dat
Název tématu česky: Analýza prostorových obrazových dat
Název tématu anglicky: Analysis of Spatial Image Data
Anotace česky:

Současné pokročilé elektronové a světelné mikroskopy a tomografy (nejčastěji využívající rentgenu nebo magnetické rezonance) dokáží získávat snímky tkání v jednotlivých paralelně uspořádaných řezech. Tím je získána primární prostorová informace, která může být vizualizována jako 3D pohled na analyzovaný objekt. Získané snímky se nejčastěji vyhodnocují vizuálně odborníkem, případně se pro dvourozměrné snímky využívají různé statistické metody založené na zpracování obrazových dat. Prostorové snímky jsou automatizovaně vyhodnocovány jen v omezené míře. 

Cílem práce je zmapovat požadavky a možnosti vyhodnocování prostorových dat, zejména identifikovat v souboru dvourozměrných snímků prostorové objekty, analyticky popsat teoretické modely těchto objektů, identifikovat jejich parametry na základě získaných dat, stanovit kvalitu identifikace včetně různých statistických údajů, tvarových charakteristik, klasifikovat nalezené objekty, analyzovat shluky apod. a to vše s ohledem na co nejefektivnější, nejpřesnější a nejrobustnější řešení.

Anotace anglicky:

Current advanced electron and light microscopes and tomographs (mostly using X-ray or magnetic resonance imaging) can acquire images in different tissues in parallel sections. This is obtained by the primary spatial information that can be visualized as a 3D view of the analyzed object. The acquired images are most often evaluated visually by a specialist or for two-dimensional images using different statistical methods based on image processing. Spatial images have been automatically evaluated to a limited extent.

The aim is to map the requirements and possibilities of evaluation of spatial data, especially to identify spatial objects in a set of two-dimensional images, analytically describe theoretical models of these objects, identify their parameters based on the data obtained and determine the quality of identification, including various statistics, shape characteristics, classify objects found, analyze clusters, etc., all with regard to the most efficient, accurate and robust solutions.

 
Metriky dynamického programování pro data mining sekvenčních dat
Název tématu česky:

Metriky dynamického programování pro data mining sekvenčních dat

Název tématu anglicky:  
Anotace česky:

Zpracování nestrukturovaných dat (sekvence, grafy, text,…) metodami data-miningu nabývá v posledních letech na významu. Je to způsobeno rostoucím objemem dat, která je třeba automatizovaně zpracovávat, a současně obsahem užitečné informace, která je v těchto nestrukturovaných datech uložena. Díky povaze dat je třeba uvažovat nad alternativními přístupy ke zpracování dat, než tomu bylo doposud u numerických dat.

Cílem práce je prozkoumat, navrhnout a ověřit možnosti transformace a modifikace stávajících data-miningových algoritmů, pracujících zpravidla v Euklidovském prostoru, do prostoru vymezeného metrikami odvozenými od dynamického programování (LCS, DTW,…). Výhodou těchto metrik je vyšší míra invariance vůči posunu a dynamické změně měřítka. Cenou je vyšší výpočetní složitost, nutnost parametrizace a absence přímočaré interpolace. Cílem práce bude prozkoumat a srovnat uvedené metody i v širším konceptu tzv. hlubokého učení (deep learningu).

Výzkumná pracoviště zabývající se podobnou problematikou:

Computer Science and Engineering Department, University of California – prof. Eamonn Koegh, http://www.cs.ucr.edu/~eamonn

Data management and data exploration group, RWTH Aachen University – prof. Thomas Seidl, http://dme.rwth-aachen.de/en/team/seidl

Významné publikace v oblasti tématu disertační práce:

http://www.cs.ucr.edu/~eamonn/sdm-02.pdf

http://helper.ipam.ucla.edu/publications/gss2012/gss2012_10607.pdf

http://dpt-info.u-strasbg.fr/~fpetitjean/Research/Petitjean2011-PR.pdf

http://www.sciencedirect.com/science/article/pii/S002002551300159X

 

Relevantní konference:

ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD)

SIAM Interantionl Conference of Data Mining (SDD)

IEEE International Conference on Data Mining (ICDM)

 

Detekce pohyblivých objektů na základě snímků z nedokonalého zrcadla

Název tématu česky: Detekce pohyblivých objektů na základě snímků z nedokonalého zrcadla
Název tématu anglicky: Detection of moving objects based on images from imperfect mirrors
Anotace česky:

Limitujícím faktorem při detekci a sledování pohyblivých objektů v úzkém prostoru (např. sledování chůze člověka v chodbě) je potřeba velkého zorného úhlu a velkého rozsahu hloubky ostrosti při krátké vzdálenosti. Jednou z možností, jak tento problém řešit je využít odrazu od stěny, na které je zrcadlo. Tím se prodlouží optická dráha, zmenší zorný úhel a zlepší hloubka ostrosti. Využití klasického zrcadla je možné, ale drahé a nepraktické, ale lze ho nahradit odraznou fólií. Ta řeší uvedené problémy, ale současně způsobuje nedokonalost snímaného obrazu.

Cílem práce je zmapovat možnosti (algoritmy) detekce a sledování pohyblivých objektů, které jsou snímány odrazem od odrazné fólie a navrhnout a ověřit postupy, jak tyto snímky algoritmicky zpracovat, aby bylo možné z nich získat správné údaje o reálném pohybu objektu. Nalezené postupy by měly být co nejefektivnější, nejpřesnější a současně robustní.

Anotace anglicky:

The limiting factor in detecting and tracking moving objects in a narrow space (e.g. watching man’s walk in a corridor) is the need for a large viewing angle and a large range of depth of field at short distances. One of the ways to solve this problem is to use the reflection from the wall with a mirror. This will extend the optical path, the viewing angle is reduced and the depth of field is improved. The use of a classical mirror is possible, but expensive and impractical, but it can be replaced with a reflective foil. It solves the above problems, but also causes the imperfection of the scanned image.

The aim is to map out possibilities (algorithms) for detection and tracking of moving objects, which are sensed by reflection from reflective foils and propose and test procedures, how these images algorithmically processed to allow them to get the correct information about the real movement. Found procedures should be the most efficient, accurate and robust at the same time.

 

Analýza přesnosti snímání hloubkových map z více čidel

Název tématu česky: Analýza přesnosti snímání hloubkových map z více čidel
Název tématu anglicky: Analysis of Accuracy of Depth Maps from Multiple Sensors
Anotace česky:

Hloubkové mapy jsou snímky, kde intenzita jasu odpovídá vzdálenosti. Přesnost určení vzdálenosti čidlem je závislá na vzdálenosti snímaného objektu. Obecně platí, že čím je objekt blíž, tím je přesnost vyšší a naopak. Současně vzdálenější objekty jsou reprezentovány menším počtem pixelů a tedy i přesnost rozlišení je menší.

Cílem práce je prozkoumat možnosti zvyšování přesnosti hloubkových map použitím dvou a více senzorů. Výzkum by se měl zaměřit na analýzu různých vzájemných uspořádání čidel vůči sobě. Výsledkem by měla být exaktně podložená analýza a návrh algoritmů, které budou zohledňovat získané poznatky a na jejich základě budou zpřesňovat požadované hloubkové mapy.

Anotace anglicky:

Depth maps are images where the intensity of the brightness corresponds to the distance. The accuracy of determining the distance is depends on the target distance. Generally speaking, the closer an object, the higher is the accuracy and vice versa. Simultaneously, distant objects are represented by a smaller number of pixels and thus the accuracy of the resolution is lower.

The aim is to explore the possibility of increasing the accuracy of the depth maps using two or more sensors. The research should focus on the analysis of different mutual arrangement of sensors to one another. The results should be well-founded on the scientific analysis and new algorithms that will refine the desired depth maps based on the gained knowledge should be designed.

 

Automatické pojmenovávání skupin slov

Název tématu česky: Automatické pojmenovávání skupin slov
Název tématu anglicky: Automatic Naming of Groups of Words
Anotace česky:

Při analýzách textů (text mininigu) se vytváří různé skupiny slov. Může jít např. o nejčastěji se vyskytující slova nebo slova, která vyplynula z nějaké složitější analýzy. Příkladem může být zpracování textu pomocí metody SVD. Skupiny slov nesou samy o sobě určitý význam, který je třeba odhalit. Např. u zmíněné metody SVD transformujeme prostor slov do nového prostoru, kde původní význam dimenzí je pozměněn (podobně jako je tomu u PCA).

Cílem práce je prozkoumat možnosti a navrhnout vhodné algoritmy, které by dokázaly automatizovaně najít pojmenování pro skupiny slov (najít význam dimenzí prostoru). Nalezené algoritmy je třeba analyzovat z hlediska dosažené přesnosti, efektivity a robustnosti.

Anotace anglicky:

When analyzing texts (text mininig), different groups of words are created. An example could be the most frequently occurring words or phrases that emerged from some complex analysis. An example might be a word processing using the SVD. Groups of words carry themselves a certain meaning, which is to be detected. For example the SVD method transforms the original space into a new space, where the meaning of the dimensions is modified (as is the case of PCA).

The aim is to explore and propose suitable algorithms that would be able to automatically find a way how to name a group of words (find the meaning of space dimensions). The found algorithms need to be analyzed in terms of achieved accuracy, efficiency and robustness.

 

Analýza fonetické podobnosti slov

Název tématu česky: Analýza fonetické podobnosti slov
Název tématu anglicky: Analysis of Phonetic Similarity of Words
Anotace česky:

Různá slova zní při jejich vyslovení stejně nebo podobně, ale přitom se jedná o různá slova jak z hlediska jejich zápisu tak významu. V současně době existuje řada algoritmů, které tuto podobnost měří, např. metody Soundex, Metaphone, NYSIIS, Damerau–Levenshtein vzdálenost apod. Tyto algoritmy ale vesměs zohledňují angličtinu. 

Cílem práce je prozkoumat možnosti a navrhnout vhodné algoritmy, které by dokázaly měřit míru podobnosti českých slov, tedy slov výrazně jiné jazykové skupiny. Pro splnění tohoto cíle je třeba podrobně analyzovat specifika českého jazyka a ty zohlednit při návrhu algoritmů. Nalezené algoritmy je třeba analyzovat z hlediska dosažené přesnosti, efektivity a robustnosti.

Anotace anglicky:

Different words sound equally or similar, yet they are different words from both their enrollment and meaning. Currently, there are algorithms that measure this similarity, such as Soundex, Metaphone, NYSIIS, Damerau-Levenshtein distance, etc. These algorithms take into account mostly English.

The aim is to explore and propose appropriate algorithms, able to measure the degree of similarity of Czech words, i.e. words of a distinctly different language group. To meet this objective, it is necessary to analyze in detail the specifics of the Czech language and take them into account in the design of new algorithms. The found algorithms need to be analyzed in terms of achieved accuracy, efficiency and robustness.

 

prof. Dr. Ing. Petr Kroha, CSc.

Školitel: prof. Dr. Ing. Petr Kroha, CSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: Softwarové inženýrství
Kontakt: petr.kroha@fit.cvut.cz
Název tématu česky: Analýza a modelování v technologických systémech se zřetelem na další vývoj softwaru
Název tématu anglicky: Analysis and modelling of technological systems with a consideration of further software development
Anotace česky:

V oblastech, kde je software pouze částí vypracovávaného projektu, je prototyp, případně první verze daného softwarového celku zpravidla diametrálně odlišná od jeho ideální výsledné podoby a na refactoring do tohoto stavu již často nezbývá prostředků jak materiálních, tak časových. Tato skutečnost se negativně podepíše např. na testovatelnosti systému, jeho udržitelnosti, rozšiřitelnosti a dokonce uživatelské přívětivosti, použitelnosti a funkčnosti a ve výsledném úhrnu činí systém, potažmo celý projekt nákladnějším nebo dokonce předznamenává jeho neúspěšnost. Jedním z důvodů tohoto stavu je chronický nedostatek vhledu do struktury softwarového řešení, neexistence dostatečných výrazových prostředků k zachycení myšlenky a nedostatečné soustředění pozornosti na softwarovou část v celé její šíři. Je tomu tak i v technologických oblastech, kde je kladen velký důraz na vývoj, testování a certifikaci hardwarové části produktu, avšak softwarová část bývá kamenem úrazu tohoto jinak zavedeného procesu.

Dizertační práce si klade za cíl analyzovat a modelovat potřeby a nároky na software v technologických a přírodovědných oborech, zhodnotit jeho různorodost a komplexnost a pokusí se navrhnout postupy, výrazové a programové prostředky, které mohou přispět ke zmenšení výskytu výše zmíněných negativních jevů.

Anotace anglicky:

In the areas where software is only a part of a project being worked out, the prototype or the first version of given software product is usually diametrically different from its ideal final form and there are often neither financial nor time resources to refactor the product into that form. This fact has negative consequences in the system testability, its sustainability, extendibility and even in end-user experience, usability and functionality and as a result it makes the system or the whole project more costly or prefigures its failure. One of the reasons of the situation is a chronic lack of the insight to the structure of the software solution, nonexistence of sufficient expressional tools to catch the idea behind and inadequate concentration to the software part of the project in its complexity. The situation is not different in the technological sector where there is almost always a great deal with development, testing and certification of a hardware part but the software one frequently is a stumbling block of the whole development process.

This dissertation thesis goal is an analysis and modeling of needs and requirements for software in technological and scientific areas, evaluation of its heterogeneity and complexity and it will make an effort to develop procedures, expressional and programming tools which can contribute to reduce the negative phenomena mentioned above.

 

Aplikace metod Enterprise Engineering při využívání digitálních zdrojů
Název tématu česky: Aplikace metod Enterprise Engineering při využívání digitálních zdrojů
Název tématu anglicky:
Enterprise Engineering Methods in Digital Resources Utilization
Anotace česky:
Cílem práce je vytvoření metodiky aplikování metod Enterprise Engineering (EE) pro analýzu závislosti ontologických transakcí na infologických transakcích a datalogických transakcích, konkrétně na digitálních zdrojích. Náplní je optimalizovat EE modely v metodě DEMO (Design and Engineering Method for Organisations) v závislosti na kontextu prostřední, ve kterém transakce probíhají. Výsledkem práce je návrh postupů, procesů, opatření a případných rozšíření nástrojů EE, především metody DEMO, vedoucích k maximalizaci hodnoty dostupných digitálních zdrojů.
Anotace anglicky:
The goal of the thesis is to create a methodology for implementing methods of Enterprise Engineering (EE) for the analysis of dependence of ontological transactions on infological and datalogical ones. The purpose is to optimise the EE models in the DEMO methodology (Design and Engineering Method for Organisations) depending on a context of the enviroment in which the transactions take place. The result of the thesis is a proposal of procedures, processes, measures and possible extensions of the EE tools, especially the DEMO methods, leading to maximising the value of the digital resources.

 

doc. Ing. Hana Kubátová, CSc.

Školitel: doc. Ing. Hana Kubátová, CSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: http://ddd.fit.cvut.cz/
Osobní stránky: https://users.fit.cvut.cz/~kubatova/
Kontakt: hana.kubatova@fit.cvut.cz, +42022435 9840

 

Formalizace a automatizace metod návrhu číslicových systémů

Název tématu česky:

Formalizace a automatizace metod návrhu číslicových systémů

Název tématu anglicky:

Formalization and automatization of digital system design methods

Anotace česky:

Výzkum možností využití formálních metod (Petriho sítě, Markovské řetězce, UML diagramy) pro zjednodušení návrhu číslicového systému a jeho automatizaci. Předpokládejme spojení s verifikací a výpočty spolehlivostních ukazatelů ve všech návrhových fázích a úpravu a optimalizaci řešení podle různých parametrů. Cílem by měla být i vzájemná kombinace různých typů modelů a podrobný výzkum vztahů a automatizovaného přechodu mezi nimi. Dílčí výsledky a navržené metody budou průběžně ověřovány na reálných aplikacích a benchmarcích.

Anotace anglicky:

The research area will be based on formal methods and models (Petri Nets, Markov chains, UML diagrams) to use them for simplificationa and automatization of digital design process. The connection of verification methods and dependability modeling at all design periods to obtain an optimized structure according different parameters is assumed. The aim should be the  combination of different models and detailed study of their relations and possible automatic conversions . Partial results and proposed methods will be evaluated by real-life applications and benchmarks.

 

Metodologie návrhu spolehlivých, útokům a poruchám odolných systémů

Název tématu česky:

Metodologie návrhu spolehlivých, útokům a poruchám odolných systémů

Název tématu anglicky:

Design methodology of dependable fault-tolerant and attack resistant systems

Anotace česky:

Výzkum způsobů a postupů v návrhu systému s předem danými spolehlivostními parametry na bázi programovatelného hardwaru (FPGA i procesorů). Výzkum vlivu redundance na různých úrovních (v prostoru, čase, SW, HW) na odolnost proti útokům. Zahrnutí možné automatizace postupů včetně vytvoření spolehlivostních modelů a výpočtů spolehlivostních parametrů. Předpokládá se průběžné ověřování výsledků na reálných aplikacích a benchmarcích.

Anotace anglicky:

The research of methods and processes in the design of systems with pre-defined reliability parameters using programmable hardware sources (FPGA, processors). The reaserch of the impact of a redundancy at different levels (space, time, software, hardware) to the attack resistance of the whole system. The research of automatization methods of the design processes including the dependability models construction and dependability parameters computations. Partial results and proposed methods will be evaluated by real-life application and benchmarks.

prof. Ing. Róbert Lórencz, CSc.

Školitel: prof. Ing. Róbert Lórencz, CSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: The Applied Numerics & Cryptography Group (ANC)
Osobní stránky: https://usermap.cvut.cz/profile/lorencz/
Kontakt: robert.lorencz@fit.cvut.cz, +42022435 9812

 

Specializovaný hardware pro modulární aritmetiku

Název tématu česky: Specializovaný hardware pro modulární aritmetiku
Název tématu anglicky: Dedicated Hardware for Modular Arithmetic
Anotace česky: Cílem je návrh a implementace specializovaných hardwarových architektur pro výpočet modulárních aritmetických operací. Výsledky jsou použitelné v kryptografii eliptických křivek, stejně jako i v jiných systémech, které využívají modulární aritmetiku.
Anotace anglicky: The aim is the design and implementation of dedicated hardware architectures for computing modular arithmetic operations. The results are applicable in elliptic curve cryptography, as well as in other systems that utilize modular arithmetic.

 

Extrakce parametrů se zaměřením na aplikovanou krystalografii

Název tématu česky: Extrakce parametrů se zaměřením na aplikovanou krystalografii
Název tématu anglicky: Parameters extraction in applied crystallography
Anotace česky: Průzkum algoritmů pro extrakci dat pro indexování látek pomocí dat z RTG strukturní analýzy. Je zde zavedeno mnoho postupů včetně prohledávání stavového prostoru, simulovaného žíhání, genetických algoritmů. Hlavním úkolem je výzkum paralelních algoritmů, které budou vhodná i pro data s více stupni volnosti a vyšší hladinou šumu.
Anotace anglicky: Analysis of algorithms for powder diffraction data indexing. There are many approaches including complete search, simulated annealing and genetic algorithms. The main task is research of algorithms suitable for low symmetry noisy data.

prof. Ing. Bořivoj Melichar, DrSc.

Školitel: prof. Ing. Bořivoj Melichar, DrSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: The Prague Stringology Club
Osobní stránky: https://usermap.cvut.cz/profile/melichar/
Kontakt: borivoj.melichar@fit.cvut.cz, +42022435 9873

 

Vyhledávání ve stromech

Název tématu česky: Vyhledávání ve stromech
Název tématu anglicky: Searching in Trees
Anotace česky: Přesné a přibližné vyhledávání vzorků ve stromech. Vyhledávání repetic a dalších pravidelností ve stromech.
Anotace anglicky: Exact and approximate pattern matching in trees. Looking for repetitions and other regularities in trees.

 

prof. Ing. Ondřej Novák, CSc.

Školitel: prof. Ing. Ondřej Novák, CSc.
Pracoviště: FM TUL
Výzkumná skupina:  
Osobní stránky:  
Kontakt: ondrej.novak@tul.cz

 

Efektivní metody komprese testovacích vzorků

Název tématu česky: Efektivní metody komprese testovacích vzorků
Název tématu anglicky: Effective test pattern compression methods
Anotace česky: Testovací vzorky jsou generovány v systému ATPG. Kromě logických hodnot 0 a 1 vzniká při generování velké množství nedefinovaných bitů. Při kompresi vzorků, které jsou přiváděny na vstupy číslicových obvodů, je výhodné využít exstenci neurčených bitů a podobnosti za sebou jdoucích vzorků. Kritériem optimality je míra redukce vzorků, složistost hardwaru nutného pro dekompresi testovací sekvence a počet hodinových cyklů nutných pro vlastní dekompresi. Optimalizace je možné provádět v prostředí MATLAB a C.
Anotace anglicky: Test pattern are generated in ATPG systems. The patterns contain don´t care values. The existence of don´t cares together with similarity of the conseqent patterns could be used in test pattern compression algorithms. The work is aimed to use previously introduced compression algorithm COMPAS created in ITE department of the TU in Liberec. The optimalization could be done in MATLAB and C environment.

 

Lineární konečné automaty optimalizované pro kompresi částečně definovaných binárních vzorků

Název tématu česky: Lineární konečné automaty optimalizované pro kompresi částečně definovaných binárních vzorků
Název tématu anglicky: Linear finite automata for compression of partially defined patterns
Anotace česky: Rozvoj výpočetních prostředků a algoritmů umožňuje experimentálně ověřovat kvalitu automatů podle specifických požadavků na komplexnější úrovni než v minulosti. Pro kompresi a dekompresi testovacích vzorků se používají takové automaty, které umožňují během daného počtu hodinových taktů přejít mezi stavy, které representují jednotlivé vzorky. Vzhledem k charakteru vzorků se jako automaů používá obvodů LFSR, které mají vhodně zvolené charakteristické polynomy. Ukazuje se však, že je možné hledat jiné typy automatů, které mají lepší řiditelnost při přechodu mezi stavy reprezentujícími nejčastěji vyskytující se vzorky. Na základě experimentů pomocí řešičů soustav lineárních rovnic a vhodného algoritmu prohledávajícího prostor možných automatů předpokládáme vylepšení sledovaných kompresních vlastností tím, že vybereme obecně nejvhodnější strukturu dekompresního automatu podle zadaných charakteristik vzorků.
Anotace anglicky: The solvers of linear equations systems can be used for further improvement of the designed linear finite automata quality according to specific requirements. This type of automaton is used for test pattern compression and decompression. The important feature of it is that it can change two states that represent partially defined patterns within a given number of clock cycles. LFSRs with appropriate characteristic polynomials are usually used for the decompression of patterns mentioned above. We suppose that new stuctures of finite automata can be found with the help of the solvers. The properties of the automata could be tailored to the given pattern characteristics.

 

 

doc. Ing. Jan Schmidt, Ph.D.

Školitel: doc. Ing. Jan Schmidt, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina:  
Osobní stránky: https://usermap.cvut.cz/profile/schmidt/
Kontakt: jan.schmidt@fit.cvut.cz

 

Implicitní metody v generování komprimovaného testu

Název tématu česky: Implicitní metody v generování komprimovaného testu
Název tématu anglicky: Implicit methods in compressed test generation
Anotace česky:
Dosavadní metody komprese testu vycházejí z předem vygenerovaného testu. Je-li generátor testu schopen akceptovat omezení na hodnoty
některých vstupních proměnných, dá se pracovat s celou množinou vektorů, pokrývajících danou poruchu najednou a vybrat podmnožinu, která vyhovuje daným omezením. Metodou překrývání vektorů dostaneme komprimovaný test. 
 
Explicitní reprezentace množiny vektorů výčtem vede na značné výpočetní složitosti algoritmu. Množinu vektorů lze určit jako všechny vektory, které splňují jistý Booleovský výraz. K práci s takto implicitně zobrazenými množinami lze použit operace Booleovy algebry a k převodu do explicitního zobrazení řešič problému splnitelnosti Booleovy formule.
 
Příbuzných aplikací je více a vzniká obecná otázka, kdy a jak implicitní reprezentace a methody nasadit, jaké jsou jejich meze a jaké typy algoritmů je využijí nejlépe. Odpověď je cílem práce.
Anotace anglicky:
Existing test compression methods require precomputed tests as their inputs. If the test generator accepts constraints on input signal values, the entire set of vectors detecting a given fault can be processed at once and the subset conforming the constraints can be selected.
Using the overlapping vector methods, we obtain a compressed test.
 
The explicit representation of a vector set by enumeration leads to a high computational complexity. We can specify the set as all vectors satisfying a Boolean formula. To manipulate such sets, Boolean algebra can be used, and a SAT solver would convert the formula to an explicit representation.
 
There is more similar applications in the general testing area. It is a question where implicit representation are useful, in what manner they shall be employed and what sort of algorithms utilizes them best. The answer is the topic of the work.

 

Systémy odolné proti poruchám založené na rekonfiguraci

Název tématu česky: Systémy odolné proti poruchám založené na rekonfiguraci
Název tématu anglicky: Reconfiguration-Based Fault Tolerant Systems
Anotace česky:
Zákaznicky programovatelná hradlová pole (FPGA) nabízejí podstatné logistické výhody proti klasickým zákaznickým obvodům. Mohly by se stát prostředkem pro snížení ceny a času vývoje vestavných systémů. Chybí však metody návrhu pro bezpečnostně kritické obvody.
 
Těžiště práce je v návrhu architektury nebo architektur pro konstrukci spolehlivých systémů na FPGA. Je zapotřebí pokrýt více oblastí: algoritmy rekonfigurace, výpočet spolehlivostních modelů a synchronizace stavu po rekonfiguraci.
Anotace anglicky:
Field Programmable Gate Arrays (FPGAs) offer substantial logistic advantages over traditional application-specific circuits, especially in small production numbers. Thus, they are an attractive way to diminish the cost and design time of embedded systems. For safety-critical applications, however, design methods are lacking.
 
The gist of this work is to design a (set of) architecture(s) and associated methods for the construction of dependable FPGA-based systems. 
Several areas have to be covered: reconfiguration algorithms, reliability modeling, state synchronization.

 

Spolehlivé architektury FPGA

Název tématu česky: Spolehlivé architektury FPGA
Název tématu anglicky: Reliable FPGA architectures
Anotace česky:
Zákaznicky programovatelná hradlová pole (FPGA) nabízejí podstatné logistické výhody proti klasickým zákaznickým obvodům. Mohly by se stát
prostředkem pro snížení ceny a času vývoje vestavných systémů. Zkonstruovat vysoce spolehlivý systém, který vyhoví pro bezpečnostně kritické aplikace je však obtížné, protože navrhujeme v prostředí které bylo zkonstruováno pro běžnou spolehlivost.
 
"Správná" metoda, jak situaci vyřešit, ja navrhnout obvod FPGA přímo určený pro spolehlivé aplikace. V rámci akademického výzkumu pochopitelně nenajdeme stovky člověkoroků potřebných pro finální návrh vyrobitelného FPGA čipu. Nicméně existuje cesta, jak je možno podstatně přispět k vývoji v tomto směru.
 
Systém VPR [1][2][3] byl navržen pro experimentální vyhodnocení FPGA architektur s ohledem na využití zdrojů, dosažitelnou hustotu funkce
apod. Existují "virtuální" modely FPGA, na kterých tento systém umí rozmístit a propojit libovolný návrh. Tyto modely jsou dosti podrobné, aby
bylo možno pracovat s poruchami na úrovni tranzistorů, a tedy vyhodnotit odolnost navržené architektury proti degradujícím vlivům. 
 
Na rozdíl od produkčního čipu, konstrukce demonstračního a ověřovacího čipu je dosti dobře možná v laboratoři IMEC (program Eurochip) nebo
i jinde.
 
[1] Vaughn Betz, Jonathan Rose and Alexander (Sandy) Marquardt:
Architecture and CAD for Deep-Submicron FPGAs. ISBN 0-7923-8460-1.
Kluwer, 2000
[2] Vaughn Betz and Jonathan Rose: VPR: A New Packing, Placement and 
Routing Tool for FPGA Research. 1997 International Workshop on Field
Programmable Logic and Applications, Springer, 1997
[3] University of Toronto: VPR and T-VPack 5.0.2: Full CAD Flow for
Heterogeneous FPGAs. http://www.eecg.utoronto.ca/vpr/
Anotace anglicky:
Field Programmable Gate Arrays (FPGAs) offer substantial logistic advantages over traditional application-specific circuits, expecially in small production numbers. Thus, they are an attractive way to diminish the cost and design time of embedded systems. To construct a highly reliable
circuit for safety-critical applications using an FPGA, however, is quite difficult, as the design environment (the FPGA itself) has been designed for an ordinary/grade dependability (consumer or industrial).
 
The "right" way to correct this is of course to design an intrinsically reliable FPGA with features targeted for such an application. In academic
research, we cannot hope to find somewhere the hundreds of person-years necessary to design a production-grade competitive FPGA chip. There is, however, a way to contribute much in this direction.
 
The VPR system [1][2][3] has been designed for experiments with FPGA architecture, targeting resource utilization, function density etc. There are "virtual FPGA chips" available, i.e. FPGA models where VPR is able to place and route any design. These models are detailed enough even for the transistor-level fault models to be utilized. This way, any devised reliable FPGA architecture can be evaluated with respect to environmental factors.
 
In contrast to a full-fledged industrial chip, manufacuting of a proof-of-concept chip or demonstrator is well possible in the framework of the IMEC Eurochip programme or elsewhere.
 
[1] Vaughn Betz, Jonathan Rose and Alexander (Sandy) Marquardt:
Architecture and CAD for Deep-Submicron FPGAs. ISBN 0-7923-8460-1.
Kluwer, 2000
[2] Vaughn Betz and Jonathan Rose: VPR: A New Packing, Placement and 
Routing Tool for FPGA Research. 1997 International Workshop on Field
Programmable Logic and Applications, Springer, 1997
[3] University of Toronto: VPR and T-VPack 5.0.2: Full CAD Flow for
Heterogeneous FPGAs. http://www.eecg.utoronto.ca/vpr/

 

Pokročilé algoritmy logické syntézy
Název tématu česky: Pokročilé algoritmy logické syntézy
Název tématu anglicky: Advanced logic synthesis
Anotace česky:
Studie naší výzkumné skupiny v posledních letech ukázaly, že existující postupy návrhu kombinačních logických obvodů se zhruba dají rozdělit do následujících dvou skupin:
 
1. Klasické, "učebnicové" postupy, založené na minimalizaci a dekompozici. Vlivem uniformní reprezentace Booleovy funkce (normální forma, rozhodovací diagramy) kvalita jejich výsledku nezávisí na velikosti nebo způsobu popisu zadání. Tyto postupy však nejsou škálovatelné - selhávají pro velké obvody, i když jim poskytneme úměrně mohutnější výpočetní prostředky.
 
2. Škálovatelné metody, založené na postupné transformaci zadání do výsledku. Pracují i na velkých obvodech. Jestliže však je popis zadání příliš rozdílný od výstupního, optimálního popisu, algoritmus postupných transformací nedokáže tuto vzdálenost přetraverzovat. V obecném případě, velikost vstupního popisu (měřená třeba v literálech) významně koreluje s velikostí výstupu (měřenou například v hradlech).
Tuto nežádoucí vlastnost mají i profesionálně používané programy.
 
Zkoumáme cesty, jak dosáhnout obojích předností najednou. Možností je více: randomizace algoritmů, hledání výhodnějších transformací obvodu ("chytřejších", s "delším dosahem"), hledání alternativních cest ke konstrukci škálovatelných algoritmů, atd.
 
Toto je široké téma, které může být pokryto několika disertačními pracemi. Téma Petra Fišera "Rozšíření AIG (And-Inverter Graph) popisu logického obvodu o XOR prvky" je úžeji zaměřeným úsilím v témž směru.
Anotace anglicky:
Several studies conducted by our group show that recent combinational logic synthesis algorithms can be divided into the following groups:
 
1. Classic, "textbook" methods based on minimization and decomposition. Thanks to uniform Boolean function representation (by normal forms or decision diagrams), the quality of the result does not depend on the size or style of input representation. These methods, however, are not scalable; they fail on large circuits even if proportionally more computation power is provided.
 
2. Scalable methods, based of successive transformation of input circuit description into resulting circuit description. These methods work even on large circuits. If the input description is very different from optimum, the algorithm is unable to span that distance with successive transformations and produces poor results. The size of the input description (measured in, say, literals) strongly correlates with the size of the output circuit (measured e.g. in gates). Even industrial systems exhibit this undesirable property.
 
We study ways to have the best of both: scalability and independent performance. There are multiple directions to explore: randomized algorithms, alternative ways to construct scalable algorithms, more "clever" or "long-distance" transformations, etc.
 
This is a broad topic, which may be covered by several works. The topic "Extension of AIG Circuit Description to XOR Gate Support",announced by Petr Fišer, is a more focused effort in the same direction.

 

 
HCI a vizualizace velkých dat v prostředí počítačové sítě
Název tématu česky:

HCI a vizualizace velkých dat v prostředí počítačové sítě

Název tématu anglicky:  
Anotace česky:

Dizertační práce se bude zabývat vizualizací a grafickou reprezentací dat o provozu v počítačových sítích za účelem bezpečnostní analýzy a prezentace výsledků nahlášených detekcí včetně důkazního materiálu. Vzhledem ke zvyšujícím se objemům dat přenášeným po stále rychlejších síťových infrastrukturách narůstá obtížnost prezentovat informace o provozu uživateli. Na uživatelská rozhraní jsou v této oblasti kladeny nároky na automatické nebo aspoň poloautomatické „předfiltrování“ relevantních dat. Cílem je prezentovat uživateli jen dostatečné minimální množství dat tak, aby se uživateli práce zjednodušila či v některých případech dokonce umožnila. Jedná se o velké objemy dat se spoustou sémantických vazeb, jež se velice obtížně převádějí do grafické (2D) reprezentace (jde o

víceúrovňovou abstrakci).

 

Doktorand bude volně navazovat na svou dosavadní práci v oblasti vývoje uživatelských rozhraní určených pro správu a konfiguraci síťových zařízení. Práce navazuje na dlouhodobou spolupráci s výzkumníky v oblasti monitorování sítí a síťové bezpečnosti působící na FIT ČVUT v Praze a v organizaci CESNET, z.s.p.o. Navrhovaný školitel má bohaté zkušenosti s problematikou tvorby a testování uživatelského rozhraní. Zároveň je odborníkem na oblast interakce člověk – počítač.

Navrhovaný školitel specialista se dlouhodobě věnuje síťové bezpečnosti a monitorování vysokorychlostních počítačových sítí, což dokazuje i svou intenzivní publikační činností. Školitel specialista bude cenným přínosem pro doktorandův výzkum a poskytne potřebnou zpětnou vazbu z pohledu praktické využitelnosti vyvinuté metody reprezentace dat.

 

Dizertabilita plánovaných výsledků je založena na faktech, že práce se bude zabývat velmi netriviálními problémy, kterými jsou jak zpracování a filtrace velkých objemů dat, tak i jejich následná prezentace uživateli.

 

Předpokládaným výsledkem práce budou články a studie metodologie, která umožní a zpřehlední uživatelům práci s daty. Očekávaný společenský a akademický přínos plánovaných výsledků je založen na faktu, že monitorování a následná vizualizace dat je kriticky důležitá pro provoz moderních rozsáhlých počítačových síťových infrastruktur. Výsledky výzkumu mají silný potenciál komerčního využití v existujících monitorovacích a „Intrusion Detection“ systémech.

Anotace anglicky:
 

 

 

doc. RNDr. Tomáš Skopal, Ph.D.

Školitel: doc. RNDr. Tomáš Skopal, Ph.D.
Pracoviště: MFF UK
Osobní stránky: siret.ms.mff.cuni.cz/skopal/
Kontakt: skopal@ksi.mff.cuni.cz, +420 221 914 227

 

Similarity Search in Big Data

Název tématu česky:  
Název tématu anglicky: Similarity Search in Big Data
Anotace česky:  
Anotace anglicky: The complexity of next-generation retrieval systems originates from the requirement to organize massive and ever growing volumes of heterogeneous data and meta-data, together with the need to provide distributed management prevalently based on similarity matching. The problem starts with data acquisition of weakly structured or completely unstructured data, such as images and video, which necessarily need 
innovative techniques for information extraction and classification to increase their findability. In principle, we consider the object findability and the actual search process as two fundamental and synergic aspects of the retrieval. Both of them pose effectiveness and efficiency challenges which need innovative theories and technologies, and must be studied together to converge to qualitatively new retrieval tools of the future. The dissertation topic is foundational in nature as it addresses the theoretical limits of similarity retrieval in context of the Big Data problem. 
Fundamental to the thesis is the development of scalable solutions.

 

Ing. Miroslav Skrbek, Ph.D.

Školitel: Ing. Miroslav Skrbek, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina: Computational Intelligence Group
Osobní stránky: http://users.fit.cvut.cz/~skrbek
Kontakt: skrbek@fit.cvut.cz, +42022435 7668

 

Výpočetní inteligence: neuronové sítě (standardní, s komplexními vahami a pulsní neuronové sítě),
evoluční algoritmy, fuzzy systémy.

Název tématu česky: Výpočetní inteligence: neuronové sítě (standardní, s komplexními vahami a pulsní neuronové sítě), evoluční algoritmy, fuzzy systémy.
Název tématu anglicky: Computational Intelligence: neural networks (standard, complex weights and spiking), evolutionary algorithms and fuzzy systems.
Anotace česky: Výpočetní inteligence patří do oblasti umělé inteligence a integruje neuronové sítě, fuzzy systémy, přírodou inspirovanou optimalizaci a imunitní systémy. Tato oblast s ohledem na současný rozvoj robotiky a inteligentních systémů nabývá stále většího významu. Přední roli hrají zejména evoluční techniky, kterými lze konstruovat a učit různé adaptivní systémy. Těžiště výzkumu je směřováno do oblasti vývoje evolučních algoritmů pro vývoj neuronových, fuzzy, případně hybridních systémů a jejich implementace na vícejádrových procesorech, GPU, případně hardware (FPGA).
Anotace anglicky: Computational Intelligence belongs to the field of artificial intelligence. It integrates neural networks, fuzzy systems, nature-inspired optimization and immune systems. This field with respect to the current development of robotics and intelligent systems is becoming increasingly important. Especially evolutionary techniques, which can be used for construction of various adaptive systems, play leading role. The focus of the research is directed towards the development of evolutionary algorithms for the development and learning of neural, fuzzy, or hybrid systems and their implementation on multicore processors, GPU and hardware (FPGA).
 

RNDr. Ing. Vladimír Smotlacha, Ph.D.

Školitel: RNDr. Ing. Vladimír Smotlacha, Ph.D.
Pracoviště: CESNET / ČVUT FIT
Výzkumná skupina:  
Osobní stránky:  
Kontakt: vs@cesnet.cz, +420224352915

 

Přenos stabilní frekvence a času optickou sítí

Název tématu česky: Přenos stabilní frekvence a času optickou sítí
Název tématu anglicky: Stable frequency and time transfer in optical network
Anotace česky: Úkolem projektu je výzkum a návrh metod dálkového přenosu stabilní frekvence a přesného času optickou sítí.
Anotace anglicky: The goal of the project is research and design of methods for long-distance transfer of stable frequency and accurate time in the optical network.

Ing. Ivan Šimeček, Ph.D.

Školitel: Ing. Ivan Šimeček, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina: http://www.fit.cvut.cz/vyzkum/pdcg
Osobní stránky: http://www.fit.cvut.cz/vyzkum/pdcg
Kontakt: ivan.simecek@fit.cvut.cz, +42022435 9851

 

Nové metody řešení indexace dat z práškové difrakce vhodné pro moderní architektury

Název tématu česky: Nové metody řešení indexace dat z práškové difrakce vhodné pro moderní architektury
Název tématu anglicky: New methods for powder diffraction dataautoindexing for modern architectures
Anotace česky:
Rentgenová strukturní analýza z práškových difrakčních dat je významná analytická metoda pro určení struktury látky v případě kdy látka neposkytuje monokrystal. Pro aplikaci metody je klíčová indexace dat – určení mřížkových parametrů. Existující algoritmy a postupy pro indexaci mají problém indexovat méně
kvalitní data a směsi látek. Cílem práce je vyvinout algoritmy, které by za cenu vyšších nároků na výpočetní výkon, než stávající algoritmy, tento problém řešily. K ověření bude provedena i implementace algoritmů s využitím paralelního zpracování. 
Anotace anglicky:

X-ray structure analysis from powder data is an important analytic method for crystal structure determination of samples not offering suitable single crystals. The indexation process is one of the critical bottlenecks for this method usage. Without determination of the crystal lattice parameters the structure solution cannot be done. Existing methods for indexation have problems with low quality data as well as with indexation of phase mixtures. The target of our work is to develop algorithm solving such situation by the help of more computational power expensive algorithms. Efficiency of algorithms should be also improved by parallel implementation.

 

prof. Ing. Pavel Tvrdík, CSc.

Školitel: prof. Ing. Pavel Tvrdík, CSc.
Pracoviště: ČVUT FIT
Výzkumná skupina: http://www.fit.cvut.cz/vyzkum/pdcg
Osobní stránky: http://www.fit.cvut.cz/vyzkum/pdcg
Kontakt: pavel.tvrdik@fit.cvut.cz, +42022435 9810

 

Operace lineární algebry na klastru grafických karet

Název tématu česky: Operace lineární algebry na klastru grafických karet
Název tématu anglicky: Numerical linear algebra for GPU clusters
Anotace česky: Průzkum možností provádění operací lineární algebry na výpočetní platformě typu klastru grafických karet
Anotace anglicky:

Numerical linear algebra for GPU clusters using MPI (Message Passing Interface) library.

 

 

Samovyvažovací formáty pro řídké matice

Název tématu česky:

Samovyvažovací formáty pro řídké matice
Název tématu anglicky: Self-balancing sparse matrix storage formats
Anotace česky: Samovyvažovací formáty pro řídké matice na bázi K-D stromu
Anotace anglicky:

Self-balancing sparse matrix storage formats using K-D tree

 

Numerický databázový systém vhodný pro paralelní zpracování

Název tématu česky: Numerický databázový systém vhodný pro paralelní zpracování
Název tématu anglicky: Parallel numerical database system
Anotace česky: Numerický databázový systém vhodný pro paralelní zpracování
Anotace anglicky:

An on-line numerical database system, that is based on the concept of a weighted search tree and which functions like a file directory, is introduced in [1]. This system is designed to aid in reducing time-consuming redundant calculations in numerically intensive computations, can be used to fetch, insert and delete items from a dynamically generated list in optimal time. Items in the list are ordered according to a priority queue with the initial priority for each element
set either automatically or by an user supplied algorithm.
This approach is efficient but not suitable for parallel execution.
The main goal is to design system with same funcionality using different
data structures that will be suitable for parallel execution.

[1] S. C. Parkb, a, C. Bahria, J. P. Draayerb, a and S. -Q. Zhengb:
Numerical database system based on a weighted search tree,
Computer Physics Communications
Volume 82, Issues 2-3, September 1994, Pages 247-264

 

Metodologie a algoritmy pro systematické vyhodnocování formátů řídkých matic

Název tématu česky:
Metodologie a algoritmy pro systematické vyhodnocování formátů řídkých matic
Název tématu anglicky:
Methodology and algorithms for a systematic evaluation of sparse matrix storage formats
Anotace česky:
Jednou z typických výpočetních operací v HPC oblasti je násobení řídké matice vektorem (sparse-matrix vector multiplication, SpMVM). Řídké matice jsou obvykle ukládány ve speciálních formátech (sparse-matrix storage format, SMSF), které se snaží minimalizovat paměťovou složitost uložené matice (t.j., snažit se co nejúsporněji ukládat pouze nenulové prvky). Současný stav výzkumu v této oblasti vedl ke vzniku mnoha SMSFs, které byly vyvinuty typicky s cílem minimalizovat paměťovou složitost. Neexistuje ale žádná metodologie, která by dovolila vyhodnocovat kvalitu daného SMSF vzhledem ke složitosti SpMVM.
 
Dalším parametrem je složitost předzpracování dané řídké matice, typicky zahrnující transformaci dané řídké matice do jiného SMSF. Většina těchto SMSFs je parametrizována a nalezení dobré/pseudooptimální hodnoty parametru/ů může být časově n. paměťově náročné a nemusí se vyplatit. A dalším parametrem, který je třeba vzít v úvahu, je architektura HPC systému a jeho výpočetních uzlů, neboť různá omezení různých architektur výpočetních uzlů (velikost paměti na jádro nebo paměťová propustnost na jádro, GPU, ap.) poskytují různé výsledky co se týče časové nebo paměťové složitosti operací s těmtito maticemi. 
 
Tématem dizertace je vyvinout metodologii a algoritmy pro systematické vyhodnocování SMSF, ktré by umožnily komplexní pochopení jejich vlastností a v ideálním případě umožnily vytvoření systému pro efektivní vyhodnocování daného SMSF pro danou HPC aplikaci na dané HPC výpočetní architektuře. Navržený systém by měl být schopen vyhodnocovat výkonnostní parametry, t.j., výpočetní a paměťové nároky a škálovatelnost v cílovém HPC prostředí.
Anotace anglicky:
One of typical computational operations in HPC domain is sparse-matrix vector multiplication (SpMVM). Sparse matrices are usually stored and represented is special sparse matrix storage formats (SMSF)  that try to minimize the space complexity of the stored matrices (i.e., to store as best as possible just the non-zero elements). The current state-of-the-art is the availability of dozens of  SMSFs, developed typically with the goal to minimize the space complexity. But there is no known methodology that would allow to assess the quality of a given SMSF w.r.t. the SpMVM runtime complexity. 
 
Another parameter is the complexity of a preprocessing of a given sparse matrix, typically involving a transformation of a given sparse matrix to another SMSF. Most of these SMSFs are parametric and to find a good/pseudooptimal value of the parameter(s) might be time or space consuming and possibly might not pay off. And yet another parameter that has to be taken into account is the architecture of the HPC system and its nodes, since various parameters constraints of various computational node architectures (per-core-memory capacity and bandwidth, GPUs, etc.) provide various results as to the time and space complexities of operations with these matrices. 
 
The PhD thesis topic is to develop a methodology and algorithms for a systematic evaluation of SMSFs that would allow a complex understanding of their properties, and ideally that would enable a construction of a system for efficient evaluation of a given SMSF for a given HPC application on a given HPC node architecture. The designed system then should be able to evaluate their performance, i.e., runtime, memory requirements, and scalability in target HPC environments.
 

 

 
Algoritmy pro efektivní plánování distribuovaných výpočtů na rozsáhlých gridech
Název tématu česky:
Algoritmy pro efektivní plánování distribuovaných výpočtů na rozsáhlých gridech
Název tématu anglicky:
Algorithms for efficient scheduling of distributed computations in global-scale computational grids
Anotace česky:
Výpočetní gridová prostředí používané pro zpracování dat z urychlovačů částic (High-Energy Physics, HEP, grids)  se skládá z různě výkonných výpočetních a úložných uzlů. Na tyto uzly je nutné mapovat výpočetní úlohy, aby docházelo k co největšímu využití poskytované infrastruktury a uživatel dostal své výsledky co nejdříve. K tomu je třeba chytrý plánovač, který zohledňuje různé vlastnosti gridového prostředí. Plánovací algoritmy jsou založeny na Push modelu nebo Pull modelu.
Cílem dizertační práce je zmapovat architektury globálních gridových infrastruktur používaných v HEP, jejich middleware principů a plánovacích algoritmů. Prozkoumat možné heuristiky pro sběr a analýzu stavových informací použitelných pro efektivní plánování výpočetních úloh na těchto gridech. Navrhnout algoritmy a politiky, které budou vyhodnocovat aktuální stav HEP gridu, datovou lokalitu/dostupnost vstupních a výstupních souborů, propustnost sítě, aj. pro výběr nejvhodnějšího kandidáta na výpočet dané úlohy. 
Anotace anglicky:
Computational grid infrastructure used for processing data in High-Energy Physics (HEP grids) consists of heterogeneous computational and storage nodes. Computational tasks need to be mapped on these nodes with the goal to use the computational infrastructure as best as possible and to provide the results to the user as soon as possible. For that a smart scheduler is needed that takes into account various status properties of the grid system. The scheduling algorithms are based on the Push model or Pull model.
 
The goal of the dissertation thesis is to review the architectures of global-scale HEP grid infrastructures, their middleware principles and scheduling algorithms. To perform research of possible heuristics for collection and analysis of status information useful for efficient scheduling of computational tasks on these grids. To design algorithms and policies that will assess the real status of a HEP grid, data locality/availability of input and output files, bandwidth of the network sybsystem, etc, in order to choose a (pseudo)optimal candidate for a given computational task. 
 

 

Distribuovaný souborový systém pro nededikované klastry

Název tématu česky:

Distribuovaný souborový systém pro nededikované klastry

Název tématu anglicky:  
Anotace česky:

Cílem práce je navrhnout distribuovaný souborový systém, který umožní efektivní a bezchybový běh aplikací, určených primárně pro běžné paralelní počítače s OS UNIXového typu, v architektuře nededikovaného svazku Clondike. Tato P2P distribuovaná architektura umožňuje distribuovanou administraci a z důvodu zabezpečení dat a aplikací proti zneužití administrátorských práv zahrnuje mechanismy pro odhalení zlomyslného a sobeckého chování administrátorů a vyloučení z toho plynoucích rizik. Distribuovaný souborový systém bude zahrnovat algoritmy jak pro přístup k běžným souborům tak i ke speciálním souborům, které představují další prostředky operačního systému, dále podporu pro vzdálené vykonávání systémových volání a checkpointing a podporu pro zajištění vhodného modelu konzistence kešovaných kopií dat.

Anotace anglicky:
 

 

 

Dr. Ing. Sven Ubik

Školitel: Dr. Ing. Sven Ubik
Pracoviště: CESNET
Výzkumná skupina: odd. Technologie pro síťové aplikace
Osobní stránky: http://cesnet.cz
Kontakt: ubik@cesnet.cz, +420 22435 5235

 

doc. Ing. Tomáš Vitvar, Ph.D.

Školitel: doc. Ing. Tomáš Vitvar, Ph.D.
Pracoviště: ČVUT FIT
Výzkumná skupina: Software Engineering Group (SWING)
Osobní stránky: http://vitvar.com
Kontakt: tomas@vitvar.com

 

Semantický web

Název tématu česky: Semantický web
Název tématu anglicky: Semantic Annotation for Web Services
Anotace česky:

Principy a technologie propojených dat, životní cyklus propojených dat. Jazyky a nástroje pro publikování, propojování a využívání strukturovaných dat na webu, srovnání s webovými API. Jazyky pro reprezentaci sémantiky dat.

Odvozování v deskripční logice a jeho aplikace ve webovém prostředí. Vztah strukturovaných dat na webu a extrakce informací z textu/HTML

Anotace anglicky: Semantic Annotation for Web Services

 

Principy moderních webových technologií

Název tématu česky: Principy moderních webových technologií
Název tématu anglicky: Web Service Discovery using methods of Collective Intelligence
Anotace česky: Moderní architektornické styly pro návrh aplikací a služeb. Metody pro zajištění dobrého výkonu aplikací (škálovatelnost a dostupnost). Jazyky pro reprezentaci rozhraní aplikací na informační, procesní a technologické vrstvě. Metody pro analýzu sociálních sítí.
Anotace anglicky: Web Service Discovery using methods of Collective Intelligence

 

doc. Ing. Stefan Ratschan

Školitel:

doc. Ing. Stefan Ratschan

Pracoviště: ČVUT FIT
Výzkumná skupina:

Digital Design & Dependability Research Group

Osobní stránky:

http://www.cs.cas.cz/~ratschan

Kontakt:

stefan.ratschan@cs.cas.cz

 

 
Verifikace složitých systémů
Název tématu česky:

Verifikace složitých systémů

Název tématu anglicky:

Verification of Complex Systems  

Anotace česky:

Vlak Pendolino z Prahy do Ostravy měl na začátku vážné problémy: občas
zastavoval během jízdy kvůli chybě v softwaru. Podobné chyby způsobovaly vážná neštěstí, například havárii raketoplánu Ariane 5 v roku 1996. Náš výzkum je zaměřen na pomoc se v budoucnosti takovým problémům vyhýbat. Nabízíme velké množství témat v této oblasti. Prodrobnosti jsou k nalezení zde: http://www.cs.cas.cz/~ratschan/theses/cz/verification.html

Anotace anglicky:

The Pendolino train from Prague to Ostrava had severe problems in its initial phase: from time to time it stopped in the middle of nowhere due to a software bug. Similar bugs have been the cause of more severe incidents, for example the crash of the Ariane 5 rocket in 1996. We are doing research that will help to avoid such problems in the future, and offer a large range of thesis topics in the area. Details can be found here: http://www.cs.cas.cz/~ratschan/theses/en/verification.html

 
Řešení omezujících podmínek
Název tématu česky:

Řešení omezujících podmínek

Název tématu anglicky:

Constraint Solving

Anotace česky:

Vyvíjíme software, teorii a algoritmy které umí řešit matematické formule obsahující nelineární rovnice a nerovnice, konjunkce, disjunkce, a logické kvantifikátory. Aplikujeme výslednou technologii v několika oblastech (např. verifikace složitých systémů, výpočet Lyapunových funkcí). Nabízíme velké množství témat v této oblasti. Prodrobnosti jsou k nalezení zde: http://www.cs.cas.cz/~ratschan/theses/cz/constraint_solving.html

Anotace anglicky:

We are developing software, theory, and algorithms that can solve mathematical constraints consisting of non-linear equalities and inequalities, conjunctions, disjunctions, and logical quantifiers. We apply the constraint solving technology in several areas (e.g., verification of complex systems, computation of Lyapunov functions), and offer a large range of thesis topics in the area. Details can be found here: http://www.cs.cas.cz/~ratschan/theses/en/constraint_solving.html

 

 

Plánování cest pro robota nebo autonomní vozidlo
Název tématu česky: Plánování cest pro robota nebo autonomní vozidlo
Název tématu anglicky: Motion planning for a robot or autonomous vehicle
Anotace česky:
Uvažme následující úlohu: naučte kvadrokoptéru, aby letěla v budově z jedné místnosti do druhé. Takový problém můžeme řešit metodami pro plánování cest, které s pomocí modelů budovy a kvadrokoptéry hledají cestu splňující zadané požadavky. Podobné problémy se vyskytují u mnoha autonomních technických systémů  jako jsou například roboti nebo samořídící auto. 
V práci se student zaměří společně se školitelem na vybraný model autonomního technického systému, implementuje metodu pro plánování cest, otestuje ji, a zkoumá možnosti vylepšení algoritmů.
Anotace anglicky:
Assume the problem to teach a quadcopter to fly from a given room in a building to another one. This problem can be solved by taking a model of the quadcopter and the building, and then using an algorithm for motion planning that searches for a path that fulfills the task. Equivalent problems occur for many autonomous technical systems, for example robots or autonomous vehicles. 
In the thesis, the student will take a model of an arbitrary autonomous technical system, implement a sampling based motion planning algorithm, experimentally evaluate it on the given model, and do research on algorithmic improvements of the algorithms.

 

Osoba zodpovědná za obsah této stránky: 
Lenka Fryčová, lenka.frycova@fit.cvut.cz


Poslední změna: 18.5.2016, 13:01