Magisterský projekt

[ Letný semester 2026 ]

Zoznam projektov

Meno / NázovOpis projektu
Tomáš Antal

Predtým, než firme predáme poistenie, alebo aj po na nejakej periodickej báze, si zisťujeme určité údaje v rámci jej udržateľnosti. Tieto údaje zväčša sú voľne dostupné na internete - na stránke danej firmy, buď vo forme pdf alebo ako klasický html súbor. Ideou tohto projektu je zautomatizovať vytváranie takýchto reportov, teda automaticky web scrape-ovať linky, ktoré budú ako vstup (pravdepodobne) do celého procesu a automaticky aj odpovedať na množinu otázok, ktoré sa v týchto reportoch môžeme pýtať. Okrem danej implementácie tohto procesu bude treba vybudovať či už front-end, teda niečo, kde user bude mať možnosť zadať súbor s linkami a nechať celý proces bežať a neskôr si tieto výsledky stiahnuť. Ale aj samotnú databázovú schému. Aplikácia, API a aj databáza bude s veľmi vysokou pravdepodobnosťou bežať na serveroch databricks.

Sustainability report generator
Viktor Balan

Trojsten - semináre

Práca na nových stránkach korešpondenčných seminárov
Matúš Bucher

Pracujem na vývoji nezávislej hry Chess Riders, ktorá je založená na šachu (hráte za figúrku koňa a získavate skóre posúvaním sa po mape a vybíjaním iných figúrok). Projekt je už rozbehnutý a existuje beta verzia hry na doméne chess-riders. Server je napísaný v jazyku Go a využíva framework Nakama, klient je vyvíjaný v Unity engine, ktorý používa jazyk C#. Tím momentálne tvoria štyria ľudia (2 programátori, 2 grafici).

Prácou na tento semester je:

  • napísanie testov (aspoň unit testing)
  • implementácia achievement systému
  • prerobiť notification systém
  • poprípade ďalšie menšie task-y ako bug fixing a pod.

Vývoj počítačovej hry Chess Riders
Lukáš Bujňák

Projekt sa zameriava na porovnávanie monokulárnych modelov odhadu hĺbky prostredníctvom downstream úlohy odhadu relatívnej pozície a orientácie (relative pose). Pre jednotlivé modely najprv získame hĺbkovú mapu, z ktorej následne vypočítame relatívnu transformáciu medzi objektmi alebo pohľadmi na základe bodových korešpondencií. Presnosť odhadu tejto relatívnej pozície slúži ako objektívna metrika kvality hĺbkového modelu. V rámci projektu bude vytvorený evaluačný dataset, na ktorom sa bude merať presnosť jednotlivých modelov. Výsledky benchmarku budú prezentované prostredníctvom nejakej formy webstránky umožňujúcej transparentné porovnanie modelov.

Primárnym príspevkom bude: Vývoj frontendu, continuous integration pipeline a v prípade potreby budem prispievať aj priamo k "pridávaniu" už existujúcich modelov.

Benchmarking Monocular Depth Estimators via Relative Pose Estimation
Ľuboš Dovičič

Vo firme v našom tíme (8 členov - 3 hlavní developeri a 5 senior konzultanti) enterprise architektúry pracujeme s nástrojmi Horizzon a Enterprise Štúdio (BES) od Bizzdesign. Nedávno sme začali pracovať s Horizzon API, nakoľko nám to uľahčí a urýchli niektoré procesy. Na jednoduchšiu prácu s API sme ako tím začali vyvíjať Python knižnicu, ktorá spracováva API volania a je prispôsobená na náš use-case. Popri tom pokračujeme vo vývoji v proprietary Enterprise Štúdio jazyku, ale mojím hlavným zámerom je Python knižnica, s plánovaným dokončením tento semester. Tasks trackujeme v Jira a codebase sa nachádza na GitHube a vnútri Enterprise Štúdia (tu máme proces na sync medzi GH a BES). Cieľom na tento semester je dokončiť túto knižnicu na náš use-case a prípadne ju rozšíriť na všeobecnejšie využitie.

Horizzon API Python Library
Jakub Drobný

Syder Variants: webová aplikácia v Go a Javascripte zobrazujúca zoznamy variantov pre populačnú štúdiu s 1000 vzorkami s informáciami zo sekvenátorov a iných analyzátorov s možnosťami triedenia a filtrovania podľa atribútov a reportami zobrazujúcimi detailné informácie o jednotlivých variantoch. Mojou úlohou bude pridávať zostávajúce features a bug fixing na dokončenie projektu do konca júna.

Data warehouse: projekt zahŕňa rozbehanie open source inštancie Laboratory Inventory Managment System prípadne jeho vlastnú implementáciu (ak nenájdeme žiadne vhodné open source riešenie) na ukladanie dát o sekvenovaných vzorkách laboratórnymi pracovníkmi a následný vývoj webovej aplikácie (pravdepodobne v Go + Javascript) na prepojenie a zjednotenie dát z tohoto a ďalších zdrojov (na iných pracoviskách) v ktorých sú v rôzne metadáta a záznamy o vzorkách a ich spracovávaní s možnosťou jednoduchého prístupu ku všetkým záznamom o manipulácií so vzorkami a ich metadát. Mojou úlohou bude podielať sa na zbere požiadaviek, návrhu systému, implementácii častí systému a pridávanie dátových zdrojov.

Syder Variants + Data warehouse
Kristína Galková

Projekt pozostáva z:

  • vlastnej online štúdie vytvorenej v JavaScripte (HTML/CSS frontend) na zber dát,
  • prediktívneho modelovania v Pythone,
  • vizualizačnej a reportingovej vrstvy v Pythone a R Shiny aplikácii.
Cieľom projektu je vytvoriť dátovo podložený spôsob určovania ochoty zákazníkov platiť (Willingness to Pay) prostredníctvom modelovania preferencií a trade-offov medzi atribútmi produktu, namiesto priameho dotazovania na cenu.

Výstupom projektu je interné, end-to-end riešenie umožňujúce lepšie produktové a cenové rozhodovanie na základe modelovaných zákazníckych preferencií.

Conjoint Analysis platforma pre Pricing manažérov
Daniela Halmová

Projekt sa venuje novému prístupu k taxonomickej klasifikácii DNA sekvencií. Vstupom je anotovaná referenčná databáza obsahujúca genómy známych baktérií a vzorka zo zmiešanej mikrobiálnej komunity. Cieľom je určiť, ktoré mikroorganizmy z referenčnej databázy sú prítomné vo vzorke a určiť ich relatívne zastúpenie. Venujem sa validácii, porovnávaniu s existujúcimi nástrojmi a pracujem na vylepšení presnosti prostredníctvom predspracovania dát a interpretácie výstupu použitých algoritmov.

PhyloPan
Filip Hošták

Cieľom projektu je pre klienta (firmu prevádzkujúcu výletné lode) implementovať sériu REST API mikroslužieb, ktoré komunikujú s databázou, medzi sebou, ako aj s inými aplikáciami. Na implementáciu sa používa programovací jazyk Java so Spring Boot frameworkom.

Tieto mikroslužby zároveň podporujú kominukáciu cez Apache Kafka a zahŕňajú aj viacero časovo naplánovaných úloh. Mikroslužieb je dohromady 10, pričom sa všetky líšia aj svojou veľkosťou, počet rôznych REST API endpointov je dohromady presne 540. Tieto mikroslužby sú súčasťou väčšieho množstva backendových mikroslužieb.

Komunikáciu robíme cez MS Teams, organizácia jednotlivých úloh je v Jire. Pre každú úlohu je potrebné implementovať aj automatizované testy, ktoré overujú funkčnosť daného riešenia.

Implementácia série REST API mikroslužieb v Jave
Zuzana Hroššová

Projekt je zameraný na automatizáciu spracovania marketingových dát, ktoré sú v súčasnosti získavané a vyhodnocované manuálne z viacerých externých zdrojov, čo predstavuje časovo náročný proces. Cieľom projektu je navrhnúť a implementovať plne automatizované riešenie, ktoré zabezpečí zber dát prostredníctvom API rozhraní jednotlivých platforiem (na základe autentifikácie pomocou API kľúčov),ich následnú transformáciu, úpravu a spojenie do jednej spoločnej tabuľky. Dáta budú automaticky získavané pomocou skriptov napísaných v jazyku Python, pričom spracovanie a úprava dát bude v prostredí Microsoft Excel Office Scripts. Dáta z viacerých zdrojov budú prepojené na základe identifikátorov a zlúčené do jednej centrálnej tabuľky, ktorá bude automaticky formátovaná a pripravená na ďalšie reportovanie a analytické spracovanie. Na projekte bude pracovať štvorčlenný tím, pričom dvaja sa budeme priamo podieľať na návrhu technického riešenia a implementácii kódu. Súčasťou projektu by mohlo byť zároveň riešenie ďalších úloh zameraných na automatizáciu podobných procesov.

Automatizácia reportingu marketingových dát
Gabriela Chutňáková

Projekt je zameraný na vývoj rýchlych a efektívnych riešení, ktoré pomáhajú automatizovať rutinné úlohy v zdravotnej poisťovni. Venujem sa dvom hlavným zadaniam:

  • Spracovanie dát z lekárskych predpisov: Vytvorenie systému, ktorý z voľného textu od lekára určí dennú dávku lieku.
  • Monitoring PR správ: Vyhodnocovanie sentimentu (pozitívny/negatívny postoj) v správach, ktoré spomínajú poisťovňu, pre potreby PR oddelenia.

Moja úloha zahŕňa konzultácie, návrh postupu, realizáciu v nástrojoch od Microsoftu (Copilot Studio, Power Automate), písanie a testovanie promptov pre AI modely. Pri vývoji využívame agilný prístup. Na organizáciu práce a sledovanie úloh využívame nástroj Jira.

Automatizácia procesov s využitím AI
Paulína Jaremčuková

Manim je open-source python knižnica, ktorá sa využíva na tvorbu matematických animácií a vizualizácií. Používateľom umožňuje vytvárať dynamické grafiky a animácie pomocou jednoduchého a intuitívneho syntax, pričom podporuje rôzne matematické koncepty, geometrické tvary a animácie funkcií. Pôvodne bola vyvinutá pre potreby YouTube kanála 3Blue1Brown, ale jej popularita viedla k vytvoreniu komunity, ktorá ju neustále vylepšuje a rozširuje. Viac informácií môžete nájsť na stránke alebo na githube.

Knižnica Manim
Tadeáš Kaminský

Mám v pláne vyvíjať službu recommender. Moje zameranie bude primárne na opravu chýb, ktoré sa objavili, okrem toho mám v pláne spraviť niekoľko taskov, ktoré sú "nice to have", prípadne dokážu zlepšiť život tým, ktorí recommender používajú. Počas developmentu používame na komunikáciu github a Slack. Sme tím šiestich ľudí, z ktorých aktívne vyvíjame štyria. Celý projekt je v Pythone.

Development projektu recommender
Fedir Kovalov

Mitsuba 3 je path-tracing renderer, ktorý využívam pre svoju diplomovú prácu. Mitsuba 3 používa XML formát pre popis 3D scén, a nemá grafické rozhranie. XML scény je veľmi ťažko chépané človekom, a je ich veľmi ťažko meniť. Existuje nástroj Mitsuba-Blender, ktorý umožňuje export Bleneder scén v Mitsuba XML formáte. Však, tento nástroj má veľa chýb, a nesprave exportuje scény. Cieľom toho projektu, je upraviť viacero chýb, ktoré zavádzajú jeho použitiu (napr. nesprávna konvertácia materiálov, nefungujúci viewport).

Vylepšenie kompatibility Mitsuba 3 a Blender
Matej Lörinc

Projekt sa zaoberá implementáciou dodatočnej funkcionality zobrazovania medicínskych scanov v DICOM formáte a to povolenie dynamického modelu nasvetlenia pomocou priestorového poľa gradientu voluemtrických dát a externého zdroja svetla.

Mojou úlohou bude navrhnúť integráciu komponentu a napísať HLSL shadre, konkrétne

  • Akým spôsobom bude funkcionalita integrovaná v prostredí v ktorom sa pohybuje používateľ (okrajovo, úloha 3d a app developerov)
  • Kedy a ako bude prebiehať výpočet gradientu
  • Ako bude vyzerať optický model externého nasvietenia
  • Konceptuálny návrh render pipeline HLSL kód, teda programovanie samotných shaderov ktoré vykresľujú obraz
  • Dôraz na optimalizáciu kritických výpočtov cez volenie správnych algoritmov a dátových štruktúr - všeobecne matematické optimalizácie + C-like optimalizácie
  • Iteratívne upravovanie opického modelu interakcie svetla s volumetrickými dátami podľa profesionálneho medicínskeho feedbacku
Dynamic Lightning in Direct Volume Rendering
Matúš Lukáč

V rámci tohoto projektu sa zameriam na návrh, vývoj a nasadenie webových aplikácií vytvorených v prostredí React. Praktická časť zahŕňa správu edukačnej webovej aplikácie na podporu výučby anglického jazyka pre žiakov prvého stupňa základnej školy a tvorbu webovej platformy pre zberateľskú kartovú hru vrátane e-shopu. Súčasťou práce je tímová spolupráca pri vývoji, správa zdrojového kódu pomocou GitHubu a nasadenie aplikácie na vlastný virtuálny privátny server spolu s jej ďalším rozvojom a údržbou.

Vývoj webových stránok
Martin Makuch

S.P.I.C.E. je medzinárodný projekt zameraný na využitie moderných dátových pipeline, cloud infraštruktúry a AI metód na spracovanie veľkých objemov dát v praxi. V spoločnosti MicroStep, spol. s r.o. pracujeme na konkrétnych use-case, pričom v našom prípade ide o analýzu dát z fiber laserových rezacích strojov s cieľom zvýšiť mieru automatizácie, spoľahlivosti a kvality rozhodovania pri prevádzke stroja. V rámci tohto use-case už bol dosiahnutý pokrok najmä v oblasti detekcie poškodenia trysky, pričom ďalším cieľom je pripraviť celé riešenie tak, aby bežalo v kontajnerovom prostredí na firemnom serveri a aby sa dalo ďalej rozvíjať v jazyku Python. Do projektu je v rámci firmy zapojených približne 10 ľudí, ktorí prispievajú programovaním alebo odbornou expertízou, pričom na aktivitách sa podieľajú aj viacerí výskumní pracovníci zo SAV a ďalšie firmy zapojené do projektu. Z hľadiska ďalšieho postupu navrhujem sústrediť sa na: rozbehanie frameworku v Dockeri, vytvorenie modelu na detekciu výmeny trysky a vytvorenie modelu pre predikciu zašpinenia ochranného sklíčka v laserovej hlave.

GitHub repozitár nášho use-case.

S.P.I.C.E. (Smart data Pipelines for the CognItive ComputE Continuum)
Tomáš Nágel

V rámci firemnej AI platformy plánujeme implementovať funkcionalitu Deep Research, ktorá používateľovi pripraví štruktúrovaný výstup k zadanej téme na základe viacerých zdrojov. Súčasťou riešenia bude plánovanie krokov výskumu, vyhľadávanie a spracovanie zdrojov, tvorba výsledného reportu a uvedenie citácií. Keďže ide o firemné prostredie a prácu s internými dátami, počítame s on-prem prístupom. Primárny dôraz bude na prácu s firemnými zdrojmi (interné dokumenty, znalostné bázy) a na auditovateľnosť výstupov. Pri spracovaní externých zdrojov predpokladáme kontrolovaný prístup (napríklad cez proxy alebo whitelist domén) tak, aby boli zachované bezpečnostné politiky.

Deep Research pre firemnú AI platformu
Daniel Pištek

PyTorch

PyTorch package
Dávid Pitoňák

V rámci firmy, pre ktorú pracujem, sme v tíme začali pracovať na projekte, ktorého cieľom je automaticky sťahovať, validovať, ukladať a vyhodnocovať vhodnosť jednotlivých tendrov verejného obstarávania v IT sektore (dostupných na oficiálnych stránkach Európskej únie) pre konkrétne tímy pomocou umelej inteligencie. Projekt by sa vo finálnej fáze mal škálovať na produkt, ktorý dokáže pomôcť klientom a ich tímom efektívnejšie sa rozhodnúť, či je pre nich konkrétna zákazka relevantná alebo nie, a prípadne aj asistovať pri príprave potrebných dokumentov, ak je zákazka vyhodnotená ako relevantná. Mojou úlohou, v spolupráci s tímom, bude implementovať v Pythone zbieranie, transformovanie a validovanie dát a ich následné ukladanie do databázy. Po dokončení tejto časti chceme pracovať na integrácii LLM modelu a vytvorení prvého prototypu, ktorý by bol schopný vyhodnocovania.

TED Procurement Data Pipeline
Jana Poľašková

Pri verejnom obstarávaní je náročné manuálne identifikovať rizikové tendre vo veľkom objeme dát. Momentálne novinári identifikujú podvody manuálne, čo je často až nemožné kvôli veľkému objemu dát, nejednotnému formátu vstupných dát a veľmi ťažkej orientácii v nich.

Navrhnuté riešenie (ktoré vzniklo v spolupráci so SME.sk) pozostáva z crawlovania dát zo stránok (Python), ako je Centrálny register zmlúv alebo data.slovensko.sk. Dáta následne putujú do databázy (Supabase/PostgreSQL), ktorá pripraví a zjednotí tendre do použiteľnej podoby.

Frontend je v podobe React aplikácie (ReactJS), ktorá umožňuje filtrovanie, zobrazenie rizikových indikátorov a detailu zákazky. Novinkou je automatizovaný scheduler, ktorý každý deň sťahuje nové záznamy a automaticky ich ukladá, čo predstavuje veľkú výhodu z hľadiska udržateľnosti systému.

Tender Intelligence Explorer
Damián Regeš

c:geo

c:geo (Android geocaching app)
Ondrej Škorňák, Filip Zrubák

Projekt je zameraný na systém, ktorý pozostáva z verejnej a internej časti a slúži na zobrazovanie údajov o subjektoch získavaných z databázy PostgreSQL. Keďže systém nebol v minulosti dostatočne udržiavaný, jeho zdrojový kód je nedostatočne štruktúrovaný, obsahuje chýbajúce funkcionality, má minimálne testovacie pokrytie a zatiaľ nemá funkčnú deployment pipeline. Mojou úlohou bude podieľať sa na postupnej modernizácii tohto systému, zlepšení kvality kódu, doplnení testov a stabilizácii vývojového a nasadzovacieho procesu.

Modernizácia a rozvoj systému pre evidenciu a prezentáciu subjektov v prostredí NBS
Jakub Tarhovický

https://github.com/naboj-org

Mojou úlohou je bugfixing a doplnenie rôznych menších funkcionalít pre stránku Náboja. Predovšetkým tých, ktoré sú oznámené v kolónke "issues" na Githube.

Zjednodušenie a vylepšenie UI pre Náboj
Tomáš Varga

UQA Chatbot je aplikácia zabudovaná priamo do prostredia Databricks, určená pre pracovníkov z underwriterského oddelenia poisťovne. Jej hlavným cieľom je umožniť používateľom efektívne kontrolovať zistené chyby (findings) v poistných procesoch a sledovať nápravné opatrenia (actions), ktoré boli prijaté na ich odstránenie.

Aplikácia stavia na modernej architektúre kombinujúcej veľké jazykové modely (LLM) s klasickými programovacími prístupmi v Pythone. Kľúčovou filozofiou projektu je prompt engineering, cielené navrhovanie inštrukcií pre LLM tak, aby každý komponent systému vykonával svoju špecifickú úlohu čo najpresnejšie. Popri jazykových modeloch sú na spracovanie a transformáciu dát využívané štandardné Python knižnice.

UQA Chatbot
Samuel Vavrek

V rámci práce v marketingovej agentúre budem pracovať na vývoji interaktívnych aplikácií v Unreal Engine 5 pre real estate klientov. Jedna časť projektu je pridávanie mechaník do aplikácie pripravenej 3D grafikmi. Je potrebné oboznámiť sa s templatom, ktorý rieši napríklad zobrazenie UI, prepínanie medzi levelmi, pohyb postavy alebo načítavanie dát o bytoch z databázy.

Druhá časť projektu je zameraná na interné nástroje, ktoré majú napríklad uľahčiť prípravu aplikácii, ako napríklad:

  • automatické rozmiestňovanie záclon. Toto je zatiaľ urobené pre prípad, kedy okná, na ktoré záclony majú byť, sú ako samostatné static meshe. Nástroj by sme chceli rozšíriť na prípad, kedy je viacero okien v rámci jedného static meshu.
  • automatické snappovanie áut na terén. Implementované snappovanie troch kolies. Cieľom bude vylepšiť snappovanie tak, aby poloha auta na zemi, vrátane odpruženia, pôsobila realistický.
  • Zapisovanie poznámok - klient môže v rámci "gameplay" lietať po svete. Tento nástroj mu pridá možnosť klikať na objekty vo svete, a následne k týmto objektom pridať komentár (napríklad pri nájdení bugu).

Vývoj interaktívnych aplikácií


Späť      Podmienky absolvovania