LTU Patekote į pirmąjį lietuvišką domeną. Daugiau informacijos

 

 

2026 m. kovo 16 d., 13 val.

Vilnius, Akademijos g. 4, 203 kab.
Nuotoliniu būdu „MS Teams“ aplinkoje (https://bit.ly/DMSTI_2026-03-16)

 

Karolis Šablauskas

(vadovė prof. dr. Audronė Jakaitienė)

 

„FRANK: RNR sekoskaitos duomenų klasifikatorius, skirtas įvairių tipų navikams nustatyti“

Anotacija: Tikslus naviko potipio charakterizavimas yra svarbus priimant gydymo sprendimus vaikų navikų atvejais. Šiame darbe pristatomas FRANK (Fully-connected RNA-based Augmentation Neural Klassifier) – metodas, skirtas klasifikuoti įvairių tipų navikus. Surinktas 11467 aukštos kokybės transkriptomų rinkinys, kuriame yra 181 skirtingų naviko ir sveiko audinio tipai. Mokymo metu taikyta duomenų augmentacija ir naujai pasiūlyta hierarchinė nuostolio funkcija įgalino apmokyti klasifikatorių, kai mažiausias skaičius mokymo pavydžių vienoje klasėje yra 3. Norėdami įvertinti apmokyto modelio generalizaciją, testavimą atlikome taikant 9 duomenų rinkinius, kurie apima 16398 mėginius. Bendras pasiektas tikslumas šiuose mėginiuose: 98,3 %. Tvirtumo (angl. robustness) analizei atliktas modelio įvertinimas naudojant triukšmingus ir prastos kokybės duomenis.

Daniel Zakševski

(vadovas doc. dr. Gintautas Tamulevičius)

 

„Processing Human Auditory System Features through a Decoupled Deep Learning Architecture“

Anotacija: While the human auditory system comfortably handles high noise environments, modern speech enhancement models often struggle under similar conditions. To address this, biophysically-inspired deep learning models aim to replicate natural hearing mechanisms, but they are usually resource hungry or functioning as monolithic "black boxes". This presentation introduces d-CoSE, a novel architecture that targets these specific limitations within human auditory system-based frameworks. By decoupling the biophysical speech enhancement pipeline into distinct analysis, feature-domain enhancement, and waveform synthesis stages, this approach transforms a one-way auditory analysis tool into a flexible, invertible signal processing front-end. This modular separation enables advanced training strategies, such as hybrid loss functions and end-to-end fine-tuning, which are not possible in standard coupled biophysical models. Ultimately, the decoupled methodology achieves a higher perceptual audio quality compared to its monolithic baseline, while providing inherent benefits in system transparency, explainability, and modularity.