Tesi

 

 Elenco Tesi

 


 

 

Tesi N°1
Titolo Relatore Abstract Tesista
Sviluppo e test di codici di simulazione per adroterapia in ambiente Fluka/Geant4 utilizzando l'infrastruttura Grid di ReCaS  
Dott.
D. Elia,
Prof.
G.E. Bruno
L'adroterapia rappresenta una moderna tecnica di radioterapia oncologica basata sull'uso di protoni, neutroni, e nuclei leggeri ad alta energia. Gli adroni hanno caratteristiche fisiche, ed effetti radiobilogici, diversi dai fotoni usati nei trattamenti radioterapici convenzionali. In particolare rendono possibile una elevata conformazione della dose al target tumorale, seguendone il contorno con precisione millimetrica; infatti depositano la gran parte della loro energia in corrispondenza degli ultimi centimetri di percorso (quello che viene detto 'picco di Bragg'), riducendo così notevolmente l'irradiamento dei tessuti sani attraversati (poichè spesso si tratta di organi critici e vitali). I fasci di particelle vengono prodotti negli acceleratori e successivamente, mediante la linea di trattameto, focalizzati e deflessi attraverso un sitema di magneti, per essere diretti verso il bersaglio tumorale. Nelle fasi di progettazione, realizzazione e ottimizzazione delle linee dei fasci per adroterapia assumono un ruolo determinate le simulazioni Monte Carlo, ottenute mediante toolkit tipici della Fisica delle Alte Energie, ad esempio GEANT4 e FLUKA. Inoltre le simulazioni si rivelano particolarmente utili sia per lo studio accurato delle interazioni degli adroni con la materia biologica, che per la verifica e l'ottimizzazione dei metodi analitici utilizzati nei piani di trattamento di ruotine per la somministrazione di dose. Lo scopo della tesi è quello di sviluppare codici di simulazioni Monte Carlo, utilizzando i toolkit GEANT4 e FLUKA, per lo studio della distribuzione di dose erogata in un trattamento di protonterapia dedicato alla pediatria. Inoltre si intende effettuare un test dei codici utilizzando l'infrastruttura GRID di ReCas che, riducendo costi e tempi computazionali, offrirebbe la possibilità di effettuare analisi su ampi set di dati e quindi di ottenere risultati molto accurati. L'impiego del Grid Computing per studi di adroterapia attualmente rappresenta un'attività 'emergente', destinata a trovare ampio spazio nella comunità scientifica. Altieri Palma RIta

 

 

Tesi N°2
Titolo Relatore Abstract Tesista
       Anglani Roberto

 

Tesi N°3
Titolo Relatore Abstract Tesista
Realizzazione e sperimentazione di una instastruttura di cloud computing IaaS basata su OpenStack Dott. Giacinto Donvito
Realizzazione e verifica delle funzionalità e delle prestazioni di una infrastruttura di cloud computing di tipo Infrastructure as a Service basata sul software OpenStack. L'attività di sperimentazione si concentrerà sulla aspetti riguardanti le risorse di calcolo, la loro allocazione dinamica e la possibilità di gestire con strumenti evoluti e semplici da usare le librerie dove vengono memorizzate le immagini delle macchine virtuali nonchè gli strumenti messi a disposizione da OpenStack per la gestione dello storage
Antonacci Marica

 

Tesi N°4
Titolo Relatore Abstract Tesista
Confronto di algoritmi di allineamento per dati generati con le nuove tecnologie di sequenziamento massivo

Dott. Ernesto

Picardi

Dip. Bioscienze,

Biotecnologie e

Biofarmaceutica

 

Dott. Donvito

Uno dei più importanti aspetti della bioinformatica riguarda l’allineamento delle sequenze e la conseguente interpretazione biologica dei risultati. Tale aspetto è particolarmente rilevante nel caso di dati prodotti con le recenti tecniche di sequenziamento, da cui si ottengono numerose sequenze che devono essere mappate sul rispettivo genoma di riferimento in modo affidabile e computazionalmente efficiente.I programmi di allineamento per dati NGS attualmente disponibili si basano su differenti algoritmi che potrebbero restituire mappaggi non ottimali e richiedere lunghi tempi di esecuzione. Un confronto diretto delle performance dei diversi software, quindi, sarebbe molto utile e indispensabile per valutare i punti di forza e le debolezze di ogni programma. A tal fine, differenti sistemi di mappaggio saranno ottimizzati per lavorare su sistemi di calcolo distribuito così da poter confrontare in tempi brevi i risultanti allineamenti. Il confronto, inoltre avverrà sia su sequenze generate in silico che su dati reali,ed interesserà i seguenti programmi:GSNAP, BWA, bowtie, STAR, RUM e Tophat2. Metriche come sensibilità e specificità a livello nucleotidico o esonico saranno utilizzate per valutare l’affidabilità di tali strumenti. 
Avelluto Maria Luisa

  

Tesi N°5
Titolo Relatore Abstract Tesista
Sviluppo di soluzioni bioinformatiche con l'ausilio di linguaggi di programmazione in scripting e di calcolo condiviso
Dott.ssa Anna De Grassi
 
Dip. Bioscienze,
Biotecnologie e
Biofarmaceutica
 
Dott. Giacinto
Donvito - INFN
Bari

Nonostante la sequenza del genoma fornisca il codice alla base della vita, la funzione della gran parte dei tre miliardi di basi del DNA umano è tutt'ora sconosciuta. Il progetto ENCODE ("Integrated Encyclopedia of DNA elements") ha di recente permesso l'individuazione di elementi del genoma umano (trascritti, siti dei legame di proteine al DNA, stato di metilazione e struttura della cromatina) in maniera sistematica in numerose linee cellulari. L'elevata mole di dati generati richiede lo sviluppo di programmi che ne permettano gestione, analisi ed integrazione. Verrà sviluppata ed implementata una procedura in grado di analizzare la correlazione tra differenti elementi del DNA al fine di predirne la possibile associazione funzionale. In particolare verrà investigata la dipendenza tra lo stato di metilazione del DNA e l'espressione genica. Il candidato focalizzerà l'attenzione sulla comprensione e il funzionamento di uno script di PERL per il management di NGS data e sullo sviluppo di uno script ex novo in PYTHON avente la stessa funzione. In più per testare le sue abilità di calcolo condiviso il candidato sottoporrebbe i jobs alla GRID: il programma che sarà sviluppato compierà lo stesso tipo di operazione per milioni di volte, quindi si avvantaggerebbe dell'uso di calcolo parallelo sulle macchine dell'INFN.

Gianluigi Baldassarre 

 

Tesi N°6
Titolo Relatore Abstract Tesista
Charged hadron production study with Monte Carlo simulations in the ALICE experiment at the LHC using the ALICE Grid Environment Prof. Domenico Di Bari ALICE is a general purpose heavy-ion detector at the CERN devoted to study the physics of nucleus nucleus interaction at LHC energies. The ALICE p-p physics, at same time, plays a relevant role providing the reference to understand the heavy-ion data and to carry out specific p-p studies. Charged hadron allow for the inference of the bulk properties of the matter created in heavy ion collisions.The Monte Carlo simulations represents one of the most important keys to compare and investigate the latest ALICE results in the hadron production. AliEn (ALICE Environment) is an implementation of distribuited computing infrastructure needed to simulate, reconstruct and analyze data and Monte Carlo from the experiment. In this thesis, the use of Alien provides a strategic tool for a large scale simulation involving all available worlwide resources.

 

Barile

Francesco

 

Tesi N°7
Titolo Relatore Abstract Tesista
Sviluppo ed Elaborazione di Modelli gerarchici multivariati per la mappatura di dati di qualità dell'aria a livello regionale tramite l’infrastruttura di calcolo avanzato del Data Center ReCaS di UNIBA- INFN
Prof. Alessio Pollice
Dip. Scienze economiche e Metodi Matematici
 
Dott. Francesco Finazzi
Dipartimento di Scienze aziendali, economiche e metodi quantitativi, Università degli studi di Bergamo
L’obiettivo principale del lavoro di tesi concerne la possibilità di realizzare, in via sperimentale, un prototipo di cruscotto informativo basato su mappe continue giornaliere e relative mappe di incertezza per le polveri fini (PM10) e gli ossidi di azoto (NO2) riferite all’intero territorio regionale pugliese. Il lavoro, inserito nell’ambito di un progetto di collaborazione che vede coinvolti Università degli Studi di Bari, Università degli studi di Bergamo e Arpa Puglia, affianca un’altra tesi di Master e prevede lo sviluppo e l’implementazione di modelli stocastici di tipo spazio-temporale che permettono una lettura ed una interpretazione efficace dei fenomeni legati all’inquinamento atmosferico. Nella tesi saranno messi in evidenza principalmente gli aspetti statistico-metodologici legati all’approccio modellistico proposto che permette di trattare in maniera opportuna dati complessi ed eterogenei e che inoltre rappresenta un potente strumento in grado di misurare e gestire adeguatamente le varie fonti di incertezza collegate ad analisi ambientali di questo tipo (quali le variazioni spazio-temporali, l’utilizzo di informazioni ausiliarie da variabili meteorologiche, la variabilità accidentale, e così via). In riferimento a quest’ultimo aspetto, saranno realizzate mappe di incertezza riferite alle concentrazioni giornaliere degli inquinanti in esame che completano ed integrano l’analisi condotta nell’ambito della tesi di Master di Annarita Turnone. La stima di massima verosimiglianza dei parametri incogniti del modello si basa su una variante dell’algoritmo EM (Expectation Maximization) e viene realizzata tramite il software dedicato D-STEM (Distributed Space Time Expectation Maximization). La complessità computazionale che caratterizza la stima di questi modelli richiede l’uso di una strumentazione di calcolo ad alte prestazioni e prevede pertanto l’utilizzo del Data Center Grid/Cloud ReCas dell’Università degli Studi di Bari “Aldo Moro” e la Sezione di Bari dell’Istituto Nazionale di Fisica Nucleare.
Calculli Crescenza 

 

Tesi N°8
Titolo Relatore Abstract Tesista
Installazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni

Dott. Diacono

Dott. Spinoso

Soluzioni centralizzate di logging per centri di calcolo di grandi dimensioni a supporto dell’attività di monitoring delle prestazioni e di security (intrusion detection) utilizzando sistemi client-server. Saranno testate diverse applicazioni open-source per realizzare configurazioni centralizzate adatte all’analisi post-evento, alla rilevazione real-time di possibili anomalie e alla implementazione di contromisure per impedire il ripetersi di eventi rischiosi per il funzionamento delle macchine.

 

Cirasole Adriano

 

Tesi N°9

Titolo Relatore Abstract Tesista
 

Sviluppo di sensori per un sistema di controllo per centri di calcolo

Dott. Giacinto Donvito;

Dott. Domenico Diacono;

Dott. Vincenzo Spinoso

 

Si svilupperanno sensori dello stato di un server, sensori dello stato della cloud, sensori di batch system, sensori di storage, sensori di database, ed in genere qualsiasi sensore necessario per raccogliere dati da registrare nel sistema di controllo che ne permetterà l'analisi.

I sensori saranno scritti utilizzando il linguaggio Python.

De Risi Giuseppe

 

 

Tesi N°10
Titolo Relatore Abstract Tesista
Analisi, installazione e test di applicazioni per il desktop remoto autenticato su server Linux Prof. Vincenzo Spinoso Le applicazioni terminal service permettono di interfacciare macchine economiche (dette 'thin client') con un server dedicato che fornisce applicazioni e potenza di calcolo ai clients. Tuttavia tali applicazioni sono tipicamente insicure perché pensate per reti locali. 
La candidata analizza lo stato dell'arte relativo alle applicazioni di terminal service in ambiente Linux, progettando e realizzando una soluzione integrata di tipo thin-client con autenticazione forte, e permettendo l'accesso autenticato da remoto al server suddetto.
Finamore Valentina

 

Tesi N°11
Titolo Relatore Abstract Tesista
 

Sviluppo di un sistema di controllo per centri di calcolo basati su griglie computazionali tramite l'uso di database noSQL e algoritmi di datamining

Dott. Giacinto Donvito
Dott. Domenico Diacono 

Realizzazione della infrastruttura di base per un sistema di "multi-accounting" dell'uso della farm di calcolo: CPU, accesso allo storage, accesso risorse di cloud, monitoring dello stato dell'infrastruttura, etc. 

Si userà come sistema di gestione dei dati un database di tipo noSQL, data l'alta mole di dati non strutturati da registrare ed analizzare. Saranno confrontati diversi sistemi fra i quali sicuramente: cassandra, couchdb, hbase, mongodb, e una volta scelto quello più adatto sarà realizzata una infrastruttura di monitoring di test.

Il progetto si propone di estendere il controllo anche a sistemi, come la rete dipartimentale, nei quali i computer non sono a disposizione del gestore della rete

Fiorentino Vincenzo 

 

 

Tesi N°12
Titolo Relatore Abstract Tesista
Piano di sviluppo industriale per un data center basata su sistemi Grid e Cloud  Prof. Piergiuseppe Lapecorella Questa tesi si prefigge l'obiettivo  di sviluppare un industriale del Data center del progetto ReCaS, focalizzato ad  attrarre le piccole e medie imprese del territorio pugliese. 
Attraverso un indagine di mercato il piano strategico dovrà focalizzarsi sulla quantità di imprese e le loro esigenze in ambito grid e cloud,
seguirà un accurata analisi dell’ambiente competitivo individuando così i concorrenti diretti ed indiretti. 
Il fine ultimo è creare una strategia di business facendo leva sul piano economico finanziario, utilizzando proiezioni finanziarie e una stima del ritorno sul capitale investito. A tal fine si procederà ad elencare tutte le attività cheverranno sviluppate e  il budget di spesa stimato, passando per obiettivi intermedi specifici concreti e misurabili.
 Firza Najada

 

 

Tesi N°13
Titolo Relatore Abstract Tesista
       Indiveri Ivano

 

Tesi N°14
Titolo Relatore Abstract Tesista
Learning Methods for Automatic Hippocampus Segmentation in a Grid Computing Environment
 
Dr. ssa Rosalia Maglietta - CNR-ISSIA  
The hippocampus is the part of brain that is critical for memory functions in humans and it is affected by aging, Alzheimer's disease (AD), and many other pathological conditions. The hippocampal volume is a significant predictor of clinical diagnosis. Hence, the ability to efficiently detect this region of the brain using 3D brain magnetic resonance image (MRI) is of great potential value for neuroscience and clinical research. In this thesis, we compare four fully automated methods for hippocampus segmentation from a 3D brain MRI scan: Adaboost, Random Forest, Logistic Regression, Support Vector Machines (SVM). These models are algorithmic implementation of ideas from statistical learning theory, concerning the problem of building consistent estimators from data.
From a statistical point of view the structural complexity of 3D MRI scans is twofold: a) the amount of examples to analyze is very huge, up to millions of training data, and b) the two classes, hippocampus and background, are dramatically unbalanced. So, implementing accurate statistical solutions for automatic segmentation becomes challenging. The main goals of this thesis are to highlight benefits and limits of the four supervised learning methods and to provide a robust statistical methodology for automatic hippocampus tracing on a new brain scan never seen before.
Moreover, learning algorithms are both compute and data intensive, then the choice of the computation environment is strategic. We used a computing GRID infrastructure, which consists of quite big clusters with extreme performance and capacity with distributed storage system, the capability to exploit distributed memory and computational resources.
 
Inglese Paolo

 

Tesi N°15
Titolo Relatore Abstract Tesista
Efficiente allineamento di dati di sequenziamento high-throughput con BLAT su una infrastruttura di calcolo distribuita 
 

Dott. Ernesto

Picardi

Dip. Bioscienze,

Biotecnologie e

Biofarmaceutica

 

Dott. Donvito

Negli ultimi anni sono state sviluppate diverse tecnologie per il sequenziamento massivo del DNA e RNA come, ad esempio, le piattaforme Roche 454, Illumina e SOLiD. Queste tecnologie hanno un ampio spettro di applicazioni come il sequenziamento genomico o il suo ri-sequenziamento, la caratterizzazione delle modificazioni istoniche su larga scala, l’identificazione dei siti di legame dei fattori di trascrizione sul DNA (mediante l’immunoprecipitazione della cromatina seguita da sequenziamento massivo (ChIP-seq)) o l'analisi di interi trascrittomi.Le attuali piattaforme di sequenziamento high-throughput e, in particolare, il sistema Illumina generano un’elevata quantità di sequenze (solitamente con lunghezze medie di 50-100 basi) che necessitano di strumenti computazionali efficienti per una corretta interpretazione dei dati e dei successivi risultati.La prima fase di analisi dei dati di sequenziamento richiede l’allineamento progressivo delle sequenze sul genoma di riferimento. La qualità dell’allineamento influenza notevolmente i risultati finali e, quindi, ha drammatiche ripercussioni sulle conclusioni biologiche che possono essere tratte.A tutt’oggi sono stati sviluppati diversi programmi per allineare in modo rapido ed accurato milioni di sequenze su un genoma di riferimento. Sebbene tali soluzioni algoritmiche siano molto efficienti in termini computazionali, la qualità degli allineamenti prodotti non è ottimale o, comunque, non soddisfacente se paragonata ai classici sistemi di allineamento come BLAST e BLAT. L’uso di tali programmi, tuttavia, non è praticabile in quanto l’allineamento di sequenze prodotte in un singolo esperimento potrebbe richiedere diverse settimane, dilatando notevolmente i tempi di analisi. Una possibile soluzione potrebbe essere quella di sfruttare il calcolo distribuito e il grid computing in modo da ripartire le sequenze da allineare su un numero elevato di processi indipendenti. Lo sviluppo di un sistema in grado di sfruttare architetture di calcolo distribuito per l’allineamento mediante Blat di sequenze prodotte con tecnologie high-throughput, sarebbe indispensabile per velocizzare l’analisi dei dati mantenendo elevata la qualità dei risultati finali.

Lasorsa Vito Alessandro 

 

Tesi N°16

Titolo Relatore Abstract Tesista
 

Studio

dei

requisiti

preliminari

per

applicazioni

Cloud

in

ambito

sanitario

Prof.

Roberto

Bellotti;

 

Ing.

Marco

Di Ciano

La tesi mira fornire un quadro dei servizi offerti al cittadino in ambito sanitario per mezzo dei sistemi informatici al fine di predisporre uno strumento di supporto sia alla governance della qualità dei servizi che alle prestazioni sanitarie.

L’obiettivo è fornire una proposta per lo sviluppo di un sistema, basato su Cloud, strutturato sulle esigenze del cittadino nell’ambito del Servizio Sanitario Regionale.

Il sistema che si vuole attuare, attraverso l’analisi dei dati provenienti dai servizi sanitari preposti ad offrire servizi clinici al cittadino, opererà in modo da:

-fornire elementi per la valutazione dell’efficacia delle politiche di investimento dell’azienda sanitaria basandosi sull’osservazione dei dati qualitativi e quantitativi relativi alle diverse patologie;

-individuare gli indicatori di qualità ed efficienza del Servizio Sanitario Regionale.;

-generare degli indici “misuratori” dei servizi erogati dal Servizio Sanitario;

-offrire un’opportunità di ottimizzazione attraverso l’ assessment del sistema sanitario;

-orientare le risorse negli ambiti caratterizzati da maggiori criticità (incidenza statistica e opportunità di garantire un elevato grado di prevenzione).

Inoltre, il sistema dovrà essere in grado di supportare gli utenti (sia esso Management sanitario, utente di unità operative o cittadino) al fine di consentire loro di operare analisi approfondite su una notevole mole di dati sottoposti a processi di anonimizzazione e pseudonimizzazione, di diverse tipologie, strutturati e non, mettendo a disposizione degli utenti funzioni specifiche e strutturando un datawarehouse, che raccolga le informazioni disponibili nelle aree applicative gestionali esistenti e capace di integrarsi con ulteriori fonti di dati utili per l’arricchimento dei processi decisionali degli utenti.

 
Mancino Floriana

 

Tesi N°17
Titolo Relatore Abstract Tesista
 

Sviluppo di interfaccia grafica per la compilazione di software per l'analisi dati dell'esperimento ALICE al CERN in ambiente AliEn-Grid

Dr. Giacinto De Cataldo

AliEn è un framework open source che costituisce un ambiente di produzione per la simulazione, la ricostruzione e l'analisi di dati fisici dell'esperimento ALICE. La sottomissione di un job di batch analysis in AliEn permette di estrarre dall'evento prodotto informazioni di interesse fisico, attraverso algoritmi definiti dall'utente, integrando i risultati di ciascuna analysis task in cui il job può essere suddiviso.

L’interfaccia grafica sviluppata dovrà fornire all'utente lo strumento per la sottomissione di job di batch analysis attraverso la definizione della sequenza e dei parametri delle analysis task, eliminando la necessità di conoscere nel dettaglio le classi e la sintassi necessarie per la scrittura di una macro di AliRoot da eseguire in AliEn.

Un esempio applicativo dell’uso di questa interfaccia sarà un’analisi dati per il detector HMPID.

Minervini Lazzaro Manlio

 

Tesi N°18
Titolo Relatore Abstract Tesista

Testing and validation of the new CMS system PREP2 for Monte 
Carlo production request submitting management

prof. Vincenzo Spinoso 
PREP2, naturally evolved by PREP presently used, is the new  CMS tool developed at CERN, which aim is to organize the Grid  production request global management, allowing the structured  information sharing among the physicists, the request production  managers and the computing engineers. The candidate will perform functionality tests on the testbed  installed at CERN and she will develop the scripts needed to remotely  interface to PREP2 for the ordinary production management activities,  supplying a dynamic and essential contribution to the application  debugging, deployment and validation

Miniello Giorgia

 

Tesi N°19
Titolo Relatore Abstract Tesista

Studio e implementazone di metodologie per il supporto al calcolo scientifico in ambiente di Grid Computing

Dott. Giacinto Donvito
Il lavoro di tesi affronterà il problema dell' esecuzione di applicazioni scientifiche su sistemi distribuiti come cluster computing e Grid Computing. Questo tema, soprattutto in ambiente Grid, dove è meglio noto come 'porting su Grid', è un obiettivo complesso per molti e differenti aspetti: alcuni sono dovuti all infrastruttura (complessità dell infrastruttura, ampio spettro di middleware, numerose possibilità di failure e molti servizi usati). L'obiettivo di questa tesi è guidare ed assistere gli utenti scientifici attraverso tutti i passi che portano all'implementazione delle loro applicazioni in ambiente distribuito e favorire quindi la migrazione degli applicativi scientifici stessi verso il GRID computing, nonchè creare un servizio "on demand" per gli utenti interessati. Questo supporto verrà anche effettuatoattraverso lo sviluppo e la scrittura delle applicazioni necessarie al porting sia in linguaggio bash che python.

Alfonso Monaco

 

Tesi N°20
Titolo Relatore Abstract Tesista
Realizzazione e verifica delle funzionalità e delle prestazioni di una infrastruttura di cloud computing di tipo Infrastructure as a Service basata su software Open Source Dott. Giacinto Donvito
L'attività di sperimentazione si concentrerà sull'analisi delle caratteristiche di un'infrastruttura di cloud computing di tipo IAAS e sulla sua realizzazione attraverso l'uso di soluzioni open source già esistenti, principalmente OpenStack e OpenNebula.
Particolare attenzione verrà focalizzata sulle risorse di calcolo e la loro allocazione dinamica, sulle risorse di rete e la loro gestione, e sulle funzionalità di marketplace per la gestione delle immagini virtuali.
Nicotri Stefano

 

 

Tesi N°21
Titolo Relatore Abstract Tesista
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni
dott. Spinoso
Dettagli: site management Competenze: Scientific Linux, Debian, scripting Bash
Palestra Giuseppe Carlo

 

Tesi N°22
Titolo Relatore Abstract Tesista
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS
Dott. Giacinto Donvito
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS presenti sul mercato, con particolare riferimento a: OpenStack, CloudStack e OpenNebula. L'attività si concentrerà anche sullo studio della possibilità di estendere i meccanismi disponibili nei vari sistemi attraverso moduli esterni, con l'obbiettivo di supportare nuovi sistemi di autenticazione e autorizzazione (quali ad esempio OpenID e OAuth).
Stasolla Erasmo

 

Tesi N°23
Titolo Relatore Abstract Tesista
Analisi di un algoritmo di segmentazione dell'ippocampo e sua disponibilità verso utenti su GRID
Prof. Brescia Massimo e Prof.ssa Tangaro Sabina

Ci si propone di indagare in 2 abiti:

- Data Mining nell' Image Processing

- Graphic User Interface (GUI) su infreastruttura GRID .

In particolare si applicheranno tecnologie di Data Mining alle MRI per la segmentazione di Ippocampo e si metterà a punto un sistema web per consentire ad un utente, opportunamente registrato, di poter applicare l'algoritmo implementato ai suoi dati sfruttando GRID.

Tateo Andrea

 

Tesi N°24
Titolo Relatore Abstract Tesista
Test di accesso per la valutazione di database NoSQL finalizzati allo sviluppo di un monitoring di una farm di calcolo di grandi dimensioni
 Dott. Spinoso
 
Toritto Maria Teresa Rita

 

Tesi N°25
Titolo Relatore Abstract Tesista
Analisi di soluzioni per applicazioni di rendering 3D su un cluster di calcolo di grandi dimensioni
Dott. Spinoso
Il processo di generazione di un'immagine 2D ottenuta dalla descrizione astratta di una scena 3D richiede diverse fasi quale la costruzione del modello tridimensionale costituito dalla sua geometria, dai materiali e dalle textures di descrizione, l’impostazione delle sorgenti virtuali di luce, e il rendering dell’immagine finale. Tale processo si avvale di algoritmi di rendering  i quali, data una definizione della geometria, dei materiali, delle textures, delle fonti di luce e del punto di vista virtuale come input,  producono un’immagine (o una sequenza di immagini nel caso di animazioni) come uscita. Il Rendering fotorealistico di alta qualità di una scena 3D è uno degli obiettivi fondamentali della computer grafica, ma che risulta molto dispendioso in termini di risorse computazionali e temporali.Per risolvere questo problema, sono stati sviluppati diversi approcci basati sull’elaborazione distribuita e parallela e quello più adottato è la Render Farm: un cluster di computer di proprietà di un’organizzazione in cui ogni frame di un’animazione viene elaborato indipendentemente da un singolo processore.
Trullo Claudia Adamita

 

Tesi N°26
Titolo Relatore Abstract Tesista
Studio e utilizzo di un modello statistico spazio-temporale per il monitoraggio della qualità dell’aria nella Regione Puglia avvalendosi dell'infrastruttura di calcolo avanzato ReCaS di UNIBA-INFN
Prof. Alessio Pollice -  Dipartimento di scienze economiche e metodi matematici, Università degli Studi di Bari, Aldo Moro
Dr. Francesco Finazzi - Dipartimento di scienze aziendali, economiche e metodi quantitativi, Università degli Studi di Bergamo
 
Il lavoro di tesi è inserito nell'Accordo Quadro di collaborazione che vede coinvolti l'Università degli studi di Bari, l'Università degli studi di Bergamo e l'ARPA Puglia. L'individuazione di modelli statistici idonei a spiegare la variabilità spazio-temporale risulta essere di fondamentale importanza per la soluzione delle problematiche connesse all'analisi dei fenomeni ambientali, in particolare quelle legate al monitoraggio della qualità dell'aria, caratterizzata da una variabilità temporale oltre che spaziale. In quest'ottica e nell'ambito della collaborazione suddetta, la candidata si propone di utilizzare un modello gerarchico spazio-temporale multivariato per le concentrazioni di PM10 e NO2 e di realizzare quindi, in via sperimentale, un prototipo di cruscotto informativo basato sulle mappe continue giornaliere di tali inquinanti, a cui si aggiungeranno le mappe di incertezza che saranno sviluppate parallelamente, nell'ambito del lavoro di tesi di Master di Crescenza Calculli. La stima di massima verosimiglianza dei parametri incogniti del modello sarà condotta attraverso l’impiego del software D-STEM (Distributed Space Time Expectation Maximization), sviluppato in ambiente Matlab per architetture di calcolo distribuito e parallelo, finalizzato alla stima di modelli statistici spazio-temporali ed alla mappatura dinamica di variabili fisiche, ambientali e meteorologiche osservate tramite reti di monitoraggio a terra e remote sensing. La complessità computazionale insita nella stima di modelli gerarchici multivariati che si aggiornano in tempo quasi reale richiede l’uso di una strumentazione di calcolo ad alte prestazioni, quale è proprio l'infrastruttura di calcolo avanzato ReCaS di UNIBA-INFN, per ridurre costi e tempi computazionali.
Turnone Annarita

 

 

Proposte di Tesi 

 

Tesi N°1
Titolo Relatore Abstract Tesista
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS presenti sul mercato, con particolare riferimento a: OpenStack, CloudStack e OpenNebula.   L'attività si concentrerà anche sullo studio della possibilità di estendere i meccanismi disponibili nei vari sistemi attraverso moduli esterni, con l'obbiettivo di supportare nuovi sistemi di autenticazione e autorizzazione (quali ad esempio OpenID e OAuth).  

 

Tesi N°2
Titolo Relatore Abstract Tesista

Realizzazione e verifica delle funzionalità e delle prestazioni di una infrastruttura di cloud computing di tipo Infrastructure as a Service basata sul software OpenStack.

NON ASSEGNABILE

  L'attività di sperimentazione si concentrerà sulla aspetti riguardanti le risorse di calcolo, la loro allocazione dinamica e la possibilità di gestire con strumenti evoluti e semplici da usare le librerie dove vengono memorizzate le immagini delle macchine virtuali nonchè gli strumenti messi a disposizione da OpenStack per la gestione dello storage.  

 

Tesi N°3
Titolo Relatore Abstract Tesista

Ottimizzazione di un sistema automatico di sottomissione job in grid e cloud. Riscrittura in python del wrapper di gestione del job su grid. Riscrittura in python di un sistema di sottomissione dei job a grid. 

 

Tecnologie.

Scripting bash e python.

 

 

Tesi N°4
Titolo Relatore Abstract Tesista
Realizzazione di un sistema di analisi dati basato sul paradigma di PROOF (agenti distribuiti che processano in modo indipendente dati di fisica su host diversi).    Il sistema deve essere tale da essere integrato in modo dinamico con il resto delle attività della farm. Le risorse vengono allocate in modo dinamico in base alle richieste. Il sistema è in grado di gestire job di gruppi diversi (almeno CMS e ALICE). Tecnologie. Scripting bash.  

  

Tesi N°5
Titolo Relatore Abstract Tesista

Installazione e configurazione di un server BOINC. porting di una applicazione semplice in BOINC, verificando la possibilita di sottomettere agenti boinc alla grid.

     

 

Tesi N°6
Titolo Relatore Abstract Tesista
Implementazione di un portale per la sottomissione di job a grid e alla farm locale, basato sulla tecnologia "wspgrade" usata nel portale IGI, per il supporto alle applicazioni scientifiche degli utenti di ReCaS.   

Tecnologie.

Esperienze sull'application porting su grid. esperienze sulla costruzione di scientific gateway. esperienze di user interface building.

 

 

Tesi N°7
Titolo Relatore Abstract Tesista
Sistemi di configurazione e gestione dei server di una farm di calcolo.   

Confronto fra le caratteristiche di almeno due sistemi di configurazione e management: "salt", “chef” e "puppet". Dopo aver scelto quello che meglio si adatta alle esigenze della farm, si implementeranno almeno 3-4 configurazioni di server usati in produzione.

Tecnologie. scripting: bash, python e/o ruby. Installare, configurare e gestire server linux con servizi standard e/o con servizi grid/cloud.

 

 

Tesi N°8
Titolo Relatore Abstract Tesista
Sperimentazione sui sistemi di asset management disponibili e open source. gestione automatizza del parco macchine con aggiornamento automatico dello stato del server e dei servizi.    Tecnologie. gestione di hardware in un CED di grandi dimensioni. Ottima conoscenza di sistemi hw. esperienza con software di asset management. networking.  

 

Tesi N°9
Titolo Relatore Abstract Tesista
Installazione, configurazione, test e ottimizzazione di CVMFS su un T2 di esperimento per la condivisione del software.  

Taglio: site management

Competenze: Scientific Linux, scripting Bash, reti informatiche.

 

 

Tesi N°10
Titolo Relatore Abstract Tesista
Test e validazione del nuovo sistema PREP2 per la gestione della sottomissione delle richieste centrali di produzione MonteCarlo.   Dettagli: testing di applicazioni

Competenze: scripting Python/Bash

 

 

Tesi N°11
Titolo Relatore Abstract Tesista
Sviluppo di componenti del nuovo sistema PREP2 per la gestione della sottomissione delle richieste centrali di produzione MonteCarlo.   Dettagli: sviluppo

Competenze: scripting avanzato con Python/CherryPy

 

 

Tesi N°12
Titolo Relatore Abstract Tesista
Sviluppo di componenti per un nuovo sistema di monitoring della produzione MonteCarlo per l'esperimento CMS.   Dettagli: sviluppo

Competenze: scripting Python; opzionalmente CouchDB e web scripting (Javascript, Python/PHP)

 

 

Tesi N°13
Titolo Relatore Abstract Tesista
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni.   Dettagli: site management

Competenze: Scientific Linux, Debian, scripting Bash

 

 

Tesi N°14
Titolo Relatore Abstract Tesista
Analisi delle vulnerabilità di una farm di calcolo di grandi dimensioni.   Dettagli: site management

Competenze: scripting

 

 

Tesi N°15
Titolo Relatore Abstract Tesista
Analisi di soluzioni open source per il bilanciamento del carico dei servizi di una farm di calcolo di grandi dimensioni.   Dettagli: studio, installazione, configurazione e test di soluzioni tipo Linux Virtual Server, per load balancing di Squid, GridFTP.  

 

 

Tesi N°16
Titolo Relatore Abstract Tesista
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni

 

ll candidato ha il compito di analizzare lo stato dell'arte relativo alle soluzioni open source relative alle applicazioni per il rilevamento e la prevenzione delle intrusioni e per la centralizzazione dei log sia applicativi sia di sistema di una server farm. L'analisi viene condotta con particolare riferimento alle distribuzioni Scientific Linux e Debian, focalizzando l'attenzione sulle caratteristiche di sostenibilità, scalabilità e flessibilità del software, e avvalendosi di concreti test di installazione e di configurazione sulla farm di calcolo di Recas.  

 

 

 

 

  

 

nstallazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni

Installazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni

Soluzioni centralizzate di logging per centri di calcolo di grandi dimensioni a supporto dell’attività di monitoring delle prestazioni e di security (intrusion detection) utilizzando sistemi client-server. Saranno testate diverse applicazioni open-source per realizzare configurazioni centralizzate adatte all’analisi post-evento, alla rilevazione real-time di possibili anomalie e alla implementazione di contromisure per impedire il ripetersi di eventi rischiosi per il funzionamento delle macchine.

Biotecnologie e
Biofarmaceutica