Tesi
Elenco Tesi
Tesi N°1 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo e test di codici di simulazione per adroterapia in ambiente Fluka/Geant4 utilizzando l'infrastruttura Grid di ReCaS |
Dott. D. Elia, Prof. G.E. Bruno |
L'adroterapia rappresenta una moderna tecnica di radioterapia oncologica basata sull'uso di protoni, neutroni, e nuclei leggeri ad alta energia. Gli adroni hanno caratteristiche fisiche, ed effetti radiobilogici, diversi dai fotoni usati nei trattamenti radioterapici convenzionali. In particolare rendono possibile una elevata conformazione della dose al target tumorale, seguendone il contorno con precisione millimetrica; infatti depositano la gran parte della loro energia in corrispondenza degli ultimi centimetri di percorso (quello che viene detto 'picco di Bragg'), riducendo così notevolmente l'irradiamento dei tessuti sani attraversati (poichè spesso si tratta di organi critici e vitali). I fasci di particelle vengono prodotti negli acceleratori e successivamente, mediante la linea di trattameto, focalizzati e deflessi attraverso un sitema di magneti, per essere diretti verso il bersaglio tumorale. Nelle fasi di progettazione, realizzazione e ottimizzazione delle linee dei fasci per adroterapia assumono un ruolo determinate le simulazioni Monte Carlo, ottenute mediante toolkit tipici della Fisica delle Alte Energie, ad esempio GEANT4 e FLUKA. Inoltre le simulazioni si rivelano particolarmente utili sia per lo studio accurato delle interazioni degli adroni con la materia biologica, che per la verifica e l'ottimizzazione dei metodi analitici utilizzati nei piani di trattamento di ruotine per la somministrazione di dose. Lo scopo della tesi è quello di sviluppare codici di simulazioni Monte Carlo, utilizzando i toolkit GEANT4 e FLUKA, per lo studio della distribuzione di dose erogata in un trattamento di protonterapia dedicato alla pediatria. Inoltre si intende effettuare un test dei codici utilizzando l'infrastruttura GRID di ReCas che, riducendo costi e tempi computazionali, offrirebbe la possibilità di effettuare analisi su ampi set di dati e quindi di ottenere risultati molto accurati. L'impiego del Grid Computing per studi di adroterapia attualmente rappresenta un'attività 'emergente', destinata a trovare ampio spazio nella comunità scientifica. | Altieri Palma RIta |
Tesi N°2 | |||
Titolo | Relatore | Abstract | Tesista |
Anglani Roberto |
Tesi N°3 | |||
Titolo | Relatore | Abstract | Tesista |
Realizzazione e sperimentazione di una instastruttura di cloud computing IaaS basata su OpenStack | Dott. Giacinto Donvito |
|
Antonacci Marica |
Tesi N°4 | |||
Titolo | Relatore | Abstract | Tesista |
Confronto di algoritmi di allineamento per dati generati con le nuove tecnologie di sequenziamento massivo |
|
Uno dei più importanti aspetti della bioinformatica riguarda l’allineamento delle sequenze e la conseguente interpretazione biologica dei risultati. Tale aspetto è particolarmente rilevante nel caso di dati prodotti con le recenti tecniche di sequenziamento, da cui si ottengono numerose sequenze che devono essere mappate sul rispettivo genoma di riferimento in modo affidabile e computazionalmente efficiente.I programmi di allineamento per dati NGS attualmente disponibili si basano su differenti algoritmi che potrebbero restituire mappaggi non ottimali e richiedere lunghi tempi di esecuzione. Un confronto diretto delle performance dei diversi software, quindi, sarebbe molto utile e indispensabile per valutare i punti di forza e le debolezze di ogni programma. A tal fine, differenti sistemi di mappaggio saranno ottimizzati per lavorare su sistemi di calcolo distribuito così da poter confrontare in tempi brevi i risultanti allineamenti. Il confronto, inoltre avverrà sia su sequenze generate in silico che su dati reali,ed interesserà i seguenti programmi:GSNAP, BWA, bowtie, STAR, RUM e Tophat2. Metriche come sensibilità e specificità a livello nucleotidico o esonico saranno utilizzate per valutare l’affidabilità di tali strumenti. |
Avelluto Maria Luisa |
Tesi N°5 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo di soluzioni bioinformatiche con l'ausilio di linguaggi di programmazione in scripting e di calcolo condiviso |
Dott.ssa Anna De Grassi Dip. Bioscienze, Biotecnologie e Biofarmaceutica Dott. Giacinto Donvito - INFN Bari |
Nonostante la sequenza del genoma fornisca il codice alla base della vita, la funzione della gran parte dei tre miliardi di basi del DNA umano è tutt'ora sconosciuta. Il progetto ENCODE ("Integrated Encyclopedia of DNA elements") ha di recente permesso l'individuazione di elementi del genoma umano (trascritti, siti dei legame di proteine al DNA, stato di metilazione e struttura della cromatina) in maniera sistematica in numerose linee cellulari. L'elevata mole di dati generati richiede lo sviluppo di programmi che ne permettano gestione, analisi ed integrazione. Verrà sviluppata ed implementata una procedura in grado di analizzare la correlazione tra differenti elementi del DNA al fine di predirne la possibile associazione funzionale. In particolare verrà investigata la dipendenza tra lo stato di metilazione del DNA e l'espressione genica. Il candidato focalizzerà l'attenzione sulla comprensione e il funzionamento di uno script di PERL per il management di NGS data e sullo sviluppo di uno script ex novo in PYTHON avente la stessa funzione. In più per testare le sue abilità di calcolo condiviso il candidato sottoporrebbe i jobs alla GRID: il programma che sarà sviluppato compierà lo stesso tipo di operazione per milioni di volte, quindi si avvantaggerebbe dell'uso di calcolo parallelo sulle macchine dell'INFN. |
Gianluigi Baldassarre |
Tesi N°6 | |||
Titolo | Relatore | Abstract | Tesista |
Charged hadron production study with Monte Carlo simulations in the ALICE experiment at the LHC using the ALICE Grid Environment | Prof. Domenico Di Bari | ALICE is a general purpose heavy-ion detector at the CERN devoted to study the physics of nucleus nucleus interaction at LHC energies. The ALICE p-p physics, at same time, plays a relevant role providing the reference to understand the heavy-ion data and to carry out specific p-p studies. Charged hadron allow for the inference of the bulk properties of the matter created in heavy ion collisions.The Monte Carlo simulations represents one of the most important keys to compare and investigate the latest ALICE results in the hadron production. AliEn (ALICE Environment) is an implementation of distribuited computing infrastructure needed to simulate, reconstruct and analyze data and Monte Carlo from the experiment. In this thesis, the use of Alien provides a strategic tool for a large scale simulation involving all available worlwide resources. |
|
Tesi N°7 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo ed Elaborazione di Modelli gerarchici multivariati per la mappatura di dati di qualità dell'aria a livello regionale tramite l’infrastruttura di calcolo avanzato del Data Center ReCaS di UNIBA- INFN |
Prof. Alessio Pollice Dip. Scienze economiche e Metodi Matematici Dott. Francesco Finazzi Dipartimento di Scienze aziendali, economiche e metodi quantitativi, Università degli studi di Bergamo |
L’obiettivo principale del lavoro di tesi concerne la possibilità di realizzare, in via sperimentale, un prototipo di cruscotto informativo basato su mappe continue giornaliere e relative mappe di incertezza per le polveri fini (PM10) e gli ossidi di azoto (NO2) riferite all’intero territorio regionale pugliese. Il lavoro, inserito nell’ambito di un progetto di collaborazione che vede coinvolti Università degli Studi di Bari, Università degli studi di Bergamo e Arpa Puglia, affianca un’altra tesi di Master e prevede lo sviluppo e l’implementazione di modelli stocastici di tipo spazio-temporale che permettono una lettura ed una interpretazione efficace dei fenomeni legati all’inquinamento atmosferico. Nella tesi saranno messi in evidenza principalmente gli aspetti statistico-metodologici legati all’approccio modellistico proposto che permette di trattare in maniera opportuna dati complessi ed eterogenei e che inoltre rappresenta un potente strumento in grado di misurare e gestire adeguatamente le varie fonti di incertezza collegate ad analisi ambientali di questo tipo (quali le variazioni spazio-temporali, l’utilizzo di informazioni ausiliarie da variabili meteorologiche, la variabilità accidentale, e così via). In riferimento a quest’ultimo aspetto, saranno realizzate mappe di incertezza riferite alle concentrazioni giornaliere degli inquinanti in esame che completano ed integrano l’analisi condotta nell’ambito della tesi di Master di Annarita Turnone. La stima di massima verosimiglianza dei parametri incogniti del modello si basa su una variante dell’algoritmo EM (Expectation Maximization) e viene realizzata tramite il software dedicato D-STEM (Distributed Space Time Expectation Maximization). La complessità computazionale che caratterizza la stima di questi modelli richiede l’uso di una strumentazione di calcolo ad alte prestazioni e prevede pertanto l’utilizzo del Data Center Grid/Cloud ReCas dell’Università degli Studi di Bari “Aldo Moro” e la Sezione di Bari dell’Istituto Nazionale di Fisica Nucleare. |
Calculli Crescenza |
Tesi N°8 | |||
Titolo | Relatore | Abstract | Tesista |
Installazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni |
Dott. Diacono Dott. Spinoso |
Soluzioni centralizzate di logging per centri di calcolo di grandi dimensioni a supporto dell’attività di monitoring delle prestazioni e di security (intrusion detection) utilizzando sistemi client-server. Saranno testate diverse applicazioni open-source per realizzare configurazioni centralizzate adatte all’analisi post-evento, alla rilevazione real-time di possibili anomalie e alla implementazione di contromisure per impedire il ripetersi di eventi rischiosi per il funzionamento delle macchine. |
|
Tesi N°9 |
|||
Titolo | Relatore | Abstract | Tesista |
Sviluppo di sensori per un sistema di controllo per centri di calcolo |
Dott. Giacinto Donvito; Dott. Domenico Diacono; Dott. Vincenzo Spinoso |
Si svilupperanno sensori dello stato di un server, sensori dello stato della cloud, sensori di batch system, sensori di storage, sensori di database, ed in genere qualsiasi sensore necessario per raccogliere dati da registrare nel sistema di controllo che ne permetterà l'analisi. I sensori saranno scritti utilizzando il linguaggio Python. |
De Risi Giuseppe |
Tesi N°10 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi, installazione e test di applicazioni per il desktop remoto autenticato su server Linux | Prof. Vincenzo Spinoso | Le applicazioni terminal service permettono di interfacciare macchine economiche (dette 'thin client') con un server dedicato che fornisce applicazioni e potenza di calcolo ai clients. Tuttavia tali applicazioni sono tipicamente insicure perché pensate per reti locali. La candidata analizza lo stato dell'arte relativo alle applicazioni di terminal service in ambiente Linux, progettando e realizzando una soluzione integrata di tipo thin-client con autenticazione forte, e permettendo l'accesso autenticato da remoto al server suddetto. |
Finamore Valentina |
Tesi N°11 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo di un sistema di controllo per centri di calcolo basati su griglie computazionali tramite l'uso di database noSQL e algoritmi di datamining |
Dott. Giacinto Donvito Dott. Domenico Diacono |
Realizzazione della infrastruttura di base per un sistema di "multi-accounting" dell'uso della farm di calcolo: CPU, accesso allo storage, accesso risorse di cloud, monitoring dello stato dell'infrastruttura, etc. Si userà come sistema di gestione dei dati un database di tipo noSQL, data l'alta mole di dati non strutturati da registrare ed analizzare. Saranno confrontati diversi sistemi fra i quali sicuramente: cassandra, couchdb, hbase, mongodb, e una volta scelto quello più adatto sarà realizzata una infrastruttura di monitoring di test. Il progetto si propone di estendere il controllo anche a sistemi, come la rete dipartimentale, nei quali i computer non sono a disposizione del gestore della rete |
Fiorentino Vincenzo |
Tesi N°12 | |||
Titolo | Relatore | Abstract | Tesista |
Piano di sviluppo industriale per un data center basata su sistemi Grid e Cloud | Prof. Piergiuseppe Lapecorella | Questa tesi si prefigge l'obiettivo di sviluppare un industriale del Data center del progetto ReCaS, focalizzato ad attrarre le piccole e medie imprese del territorio pugliese. Attraverso un indagine di mercato il piano strategico dovrà focalizzarsi sulla quantità di imprese e le loro esigenze in ambito grid e cloud, seguirà un accurata analisi dell’ambiente competitivo individuando così i concorrenti diretti ed indiretti. Il fine ultimo è creare una strategia di business facendo leva sul piano economico finanziario, utilizzando proiezioni finanziarie e una stima del ritorno sul capitale investito. A tal fine si procederà ad elencare tutte le attività cheverranno sviluppate e il budget di spesa stimato, passando per obiettivi intermedi specifici concreti e misurabili. |
Firza Najada |
Tesi N°13 | |||
Titolo | Relatore | Abstract | Tesista |
Indiveri Ivano |
Tesi N°14 | |||
Titolo | Relatore | Abstract | Tesista |
|
Dr. ssa Rosalia Maglietta - CNR-ISSIA |
|
Inglese Paolo |
Tesi N°15 | |||
Titolo | Relatore | Abstract | Tesista |
Efficiente allineamento di dati di sequenziamento high-throughput con BLAT su una infrastruttura di calcolo distribuita |
|
Negli ultimi anni sono state sviluppate diverse tecnologie per il sequenziamento massivo del DNA e RNA come, ad esempio, le piattaforme Roche 454, Illumina e SOLiD. Queste tecnologie hanno un ampio spettro di applicazioni come il sequenziamento genomico o il suo ri-sequenziamento, la caratterizzazione delle modificazioni istoniche su larga scala, l’identificazione dei siti di legame dei fattori di trascrizione sul DNA (mediante l’immunoprecipitazione della cromatina seguita da sequenziamento massivo (ChIP-seq)) o l'analisi di interi trascrittomi.Le attuali piattaforme di sequenziamento high-throughput e, in particolare, il sistema Illumina generano un’elevata quantità di sequenze (solitamente con lunghezze medie di 50-100 basi) che necessitano di strumenti computazionali efficienti per una corretta interpretazione dei dati e dei successivi risultati.La prima fase di analisi dei dati di sequenziamento richiede l’allineamento progressivo delle sequenze sul genoma di riferimento. La qualità dell’allineamento influenza notevolmente i risultati finali e, quindi, ha drammatiche ripercussioni sulle conclusioni biologiche che possono essere tratte.A tutt’oggi sono stati sviluppati diversi programmi per allineare in modo rapido ed accurato milioni di sequenze su un genoma di riferimento. Sebbene tali soluzioni algoritmiche siano molto efficienti in termini computazionali, la qualità degli allineamenti prodotti non è ottimale o, comunque, non soddisfacente se paragonata ai classici sistemi di allineamento come BLAST e BLAT. L’uso di tali programmi, tuttavia, non è praticabile in quanto l’allineamento di sequenze prodotte in un singolo esperimento potrebbe richiedere diverse settimane, dilatando notevolmente i tempi di analisi. Una possibile soluzione potrebbe essere quella di sfruttare il calcolo distribuito e il grid computing in modo da ripartire le sequenze da allineare su un numero elevato di processi indipendenti. Lo sviluppo di un sistema in grado di sfruttare architetture di calcolo distribuito per l’allineamento mediante Blat di sequenze prodotte con tecnologie high-throughput, sarebbe indispensabile per velocizzare l’analisi dei dati mantenendo elevata la qualità dei risultati finali. |
|
Tesi N°16 |
|||
Titolo | Relatore | Abstract | Tesista |
|
|
|
Mancino Floriana |
Tesi N°17 | |||
Titolo | Relatore | Abstract | Tesista |
|
Dr. Giacinto De Cataldo |
|
Minervini Lazzaro Manlio |
Tesi N°18 | |||
Titolo | Relatore | Abstract | Tesista |
|
prof. Vincenzo Spinoso |
PREP2, naturally evolved by PREP presently used, is the new CMS tool developed at CERN, which aim is to organize the Grid production request global management, allowing the structured information sharing among the physicists, the request production managers and the computing engineers. The candidate will perform functionality tests on the testbed installed at CERN and she will develop the scripts needed to remotely interface to PREP2 for the ordinary production management activities, supplying a dynamic and essential contribution to the application debugging, deployment and validation |
|
Tesi N°19 | |||
Titolo | Relatore | Abstract | Tesista |
|
Dott. Giacinto Donvito |
Il lavoro di tesi affronterà il problema dell' esecuzione di applicazioni scientifiche su sistemi distribuiti come cluster computing e Grid Computing. Questo tema, soprattutto in ambiente Grid, dove è meglio noto come 'porting su Grid', è un obiettivo complesso per molti e differenti aspetti: alcuni sono dovuti all infrastruttura (complessità dell infrastruttura, ampio spettro di middleware, numerose possibilità di failure e molti servizi usati). L'obiettivo di questa tesi è guidare ed assistere gli utenti scientifici attraverso tutti i passi che portano all'implementazione delle loro applicazioni in ambiente distribuito e favorire quindi la migrazione degli applicativi scientifici stessi verso il GRID computing, nonchè creare un servizio "on demand" per gli utenti interessati. Questo supporto verrà anche effettuatoattraverso lo sviluppo e la scrittura delle applicazioni necessarie al porting sia in linguaggio bash che python. |
|
Tesi N°20 | |||
Titolo | Relatore | Abstract | Tesista |
Realizzazione e verifica delle funzionalità e delle prestazioni di una infrastruttura di cloud computing di tipo Infrastructure as a Service basata su software Open Source | Dott. Giacinto Donvito |
|
Nicotri Stefano |
Tesi N°21 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni |
dott. Spinoso |
Dettagli: site management Competenze: Scientific Linux, Debian, scripting Bash |
Palestra Giuseppe Carlo |
Tesi N°22 | |||
Titolo | Relatore | Abstract | Tesista |
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS |
Dott. Giacinto Donvito |
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS presenti sul mercato, con particolare riferimento a: OpenStack, CloudStack e OpenNebula. L'attività si concentrerà anche sullo studio della possibilità di estendere i meccanismi disponibili nei vari sistemi attraverso moduli esterni, con l'obbiettivo di supportare nuovi sistemi di autenticazione e autorizzazione (quali ad esempio OpenID e OAuth). |
Stasolla Erasmo |
Tesi N°23 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di un algoritmo di segmentazione dell'ippocampo e sua disponibilità verso utenti su GRID |
Prof. Brescia Massimo e Prof.ssa Tangaro Sabina |
|
Tateo Andrea |
Tesi N°24 | |||
Titolo | Relatore | Abstract | Tesista |
Test di accesso per la valutazione di database NoSQL finalizzati allo sviluppo di un monitoring di una farm di calcolo di grandi dimensioni |
Dott. Spinoso |
|
Toritto Maria Teresa Rita |
Tesi N°25 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di soluzioni per applicazioni di rendering 3D su un cluster di calcolo di grandi dimensioni |
Dott. Spinoso |
Il processo di generazione di un'immagine 2D ottenuta dalla descrizione astratta di una scena 3D richiede diverse fasi quale la costruzione del modello tridimensionale costituito dalla sua geometria, dai materiali e dalle textures di descrizione, l’impostazione delle sorgenti virtuali di luce, e il rendering dell’immagine finale. Tale processo si avvale di algoritmi di rendering i quali, data una definizione della geometria, dei materiali, delle textures, delle fonti di luce e del punto di vista virtuale come input, producono un’immagine (o una sequenza di immagini nel caso di animazioni) come uscita. Il Rendering fotorealistico di alta qualità di una scena 3D è uno degli obiettivi fondamentali della computer grafica, ma che risulta molto dispendioso in termini di risorse computazionali e temporali.Per risolvere questo problema, sono stati sviluppati diversi approcci basati sull’elaborazione distribuita e parallela e quello più adottato è la Render Farm: un cluster di computer di proprietà di un’organizzazione in cui ogni frame di un’animazione viene elaborato indipendentemente da un singolo processore. |
Trullo Claudia Adamita |
Tesi N°26 | |||
Titolo | Relatore | Abstract | Tesista |
Studio e utilizzo di un modello statistico spazio-temporale per il monitoraggio della qualità dell’aria nella Regione Puglia avvalendosi dell'infrastruttura di calcolo avanzato ReCaS di UNIBA-INFN |
Prof. Alessio Pollice - Dipartimento di scienze economiche e metodi matematici, Università degli Studi di Bari, Aldo Moro Dr. Francesco Finazzi - Dipartimento di scienze aziendali, economiche e metodi quantitativi, Università degli Studi di Bergamo |
Il lavoro di tesi è inserito nell'Accordo Quadro di collaborazione che vede coinvolti l'Università degli studi di Bari, l'Università degli studi di Bergamo e l'ARPA Puglia. L'individuazione di modelli statistici idonei a spiegare la variabilità spazio-temporale risulta essere di fondamentale importanza per la soluzione delle problematiche connesse all'analisi dei fenomeni ambientali, in particolare quelle legate al monitoraggio della qualità dell'aria, caratterizzata da una variabilità temporale oltre che spaziale. In quest'ottica e nell'ambito della collaborazione suddetta, la candidata si propone di utilizzare un modello gerarchico spazio-temporale multivariato per le concentrazioni di PM10 e NO2 e di realizzare quindi, in via sperimentale, un prototipo di cruscotto informativo basato sulle mappe continue giornaliere di tali inquinanti, a cui si aggiungeranno le mappe di incertezza che saranno sviluppate parallelamente, nell'ambito del lavoro di tesi di Master di Crescenza Calculli. La stima di massima verosimiglianza dei parametri incogniti del modello sarà condotta attraverso l’impiego del software D-STEM (Distributed Space Time Expectation Maximization), sviluppato in ambiente Matlab per architetture di calcolo distribuito e parallelo, finalizzato alla stima di modelli statistici spazio-temporali ed alla mappatura dinamica di variabili fisiche, ambientali e meteorologiche osservate tramite reti di monitoraggio a terra e remote sensing. La complessità computazionale insita nella stima di modelli gerarchici multivariati che si aggiornano in tempo quasi reale richiede l’uso di una strumentazione di calcolo ad alte prestazioni, quale è proprio l'infrastruttura di calcolo avanzato ReCaS di UNIBA-INFN, per ridurre costi e tempi computazionali. |
Turnone Annarita |
Proposte di Tesi
Tesi N°1 | |||
Titolo | Relatore | Abstract | Tesista |
Studio e analisi delle funzionalità di autenticazione e sicurezza dei software open source di Cloud IaaS presenti sul mercato, con particolare riferimento a: OpenStack, CloudStack e OpenNebula. | L'attività si concentrerà anche sullo studio della possibilità di estendere i meccanismi disponibili nei vari sistemi attraverso moduli esterni, con l'obbiettivo di supportare nuovi sistemi di autenticazione e autorizzazione (quali ad esempio OpenID e OAuth). |
Tesi N°2 | |||
Titolo | Relatore | Abstract | Tesista |
Realizzazione e verifica delle funzionalità e delle prestazioni di una infrastruttura di cloud computing di tipo Infrastructure as a Service basata sul software OpenStack. NON ASSEGNABILE |
L'attività di sperimentazione si concentrerà sulla aspetti riguardanti le risorse di calcolo, la loro allocazione dinamica e la possibilità di gestire con strumenti evoluti e semplici da usare le librerie dove vengono memorizzate le immagini delle macchine virtuali nonchè gli strumenti messi a disposizione da OpenStack per la gestione dello storage. |
Tesi N°3 | |||
Titolo | Relatore | Abstract | Tesista |
Ottimizzazione di un sistema automatico di sottomissione job in grid e cloud. Riscrittura in python del wrapper di gestione del job su grid. Riscrittura in python di un sistema di sottomissione dei job a grid. |
Tecnologie. Scripting bash e python. |
Tesi N°4 | |||
Titolo | Relatore | Abstract | Tesista |
Realizzazione di un sistema di analisi dati basato sul paradigma di PROOF (agenti distribuiti che processano in modo indipendente dati di fisica su host diversi). | Il sistema deve essere tale da essere integrato in modo dinamico con il resto delle attività della farm. Le risorse vengono allocate in modo dinamico in base alle richieste. Il sistema è in grado di gestire job di gruppi diversi (almeno CMS e ALICE). Tecnologie. Scripting bash. |
Tesi N°5 | |||
Titolo | Relatore | Abstract | Tesista |
Installazione e configurazione di un server BOINC. porting di una applicazione semplice in BOINC, verificando la possibilita di sottomettere agenti boinc alla grid. |
Tesi N°6 | |||
Titolo | Relatore | Abstract | Tesista |
Implementazione di un portale per la sottomissione di job a grid e alla farm locale, basato sulla tecnologia "wspgrade" usata nel portale IGI, per il supporto alle applicazioni scientifiche degli utenti di ReCaS. |
Tecnologie. Esperienze sull'application porting su grid. esperienze sulla costruzione di scientific gateway. esperienze di user interface building. |
Tesi N°7 | |||
Titolo | Relatore | Abstract | Tesista |
Sistemi di configurazione e gestione dei server di una farm di calcolo. |
Confronto fra le caratteristiche di almeno due sistemi di configurazione e management: "salt", “chef” e "puppet". Dopo aver scelto quello che meglio si adatta alle esigenze della farm, si implementeranno almeno 3-4 configurazioni di server usati in produzione. Tecnologie. scripting: bash, python e/o ruby. Installare, configurare e gestire server linux con servizi standard e/o con servizi grid/cloud. |
Tesi N°8 | |||
Titolo | Relatore | Abstract | Tesista |
Sperimentazione sui sistemi di asset management disponibili e open source. gestione automatizza del parco macchine con aggiornamento automatico dello stato del server e dei servizi. | Tecnologie. gestione di hardware in un CED di grandi dimensioni. Ottima conoscenza di sistemi hw. esperienza con software di asset management. networking. |
Tesi N°9 | |||
Titolo | Relatore | Abstract | Tesista |
Installazione, configurazione, test e ottimizzazione di CVMFS su un T2 di esperimento per la condivisione del software. |
Taglio: site management Competenze: Scientific Linux, scripting Bash, reti informatiche. |
Tesi N°10 | |||
Titolo | Relatore | Abstract | Tesista |
Test e validazione del nuovo sistema PREP2 per la gestione della sottomissione delle richieste centrali di produzione MonteCarlo. | Dettagli: testing di applicazioni
Competenze: scripting Python/Bash |
Tesi N°11 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo di componenti del nuovo sistema PREP2 per la gestione della sottomissione delle richieste centrali di produzione MonteCarlo. | Dettagli: sviluppo
Competenze: scripting avanzato con Python/CherryPy |
Tesi N°12 | |||
Titolo | Relatore | Abstract | Tesista |
Sviluppo di componenti per un nuovo sistema di monitoring della produzione MonteCarlo per l'esperimento CMS. | Dettagli: sviluppo
Competenze: scripting Python; opzionalmente CouchDB e web scripting (Javascript, Python/PHP) |
Tesi N°13 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni. | Dettagli: site management
Competenze: Scientific Linux, Debian, scripting Bash |
Tesi N°14 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi delle vulnerabilità di una farm di calcolo di grandi dimensioni. | Dettagli: site management
Competenze: scripting |
Tesi N°15 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di soluzioni open source per il bilanciamento del carico dei servizi di una farm di calcolo di grandi dimensioni. | Dettagli: studio, installazione, configurazione e test di soluzioni tipo Linux Virtual Server, per load balancing di Squid, GridFTP. |
Tesi N°16 | |||
Titolo | Relatore | Abstract | Tesista |
Analisi di soluzioni open-source per l'intrusion detection e l'analisi centralizzata dei log in una farm di calcolo di grandi dimensioni |
|
ll candidato ha il compito di analizzare lo stato dell'arte relativo alle soluzioni open source relative alle applicazioni per il rilevamento e la prevenzione delle intrusioni e per la centralizzazione dei log sia applicativi sia di sistema di una server farm. L'analisi viene condotta con particolare riferimento alle distribuzioni Scientific Linux e Debian, focalizzando l'attenzione sulle caratteristiche di sostenibilità, scalabilità e flessibilità del software, e avvalendosi di concreti test di installazione e di configurazione sulla farm di calcolo di Recas. |
nstallazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni
Installazione e configurazione di tools per la gestione centralizzata di log in centri di calcolo di grandi dimensioni
Soluzioni centralizzate di logging per centri di calcolo di grandi dimensioni a supporto dell’attività di monitoring delle prestazioni e di security (intrusion detection) utilizzando sistemi client-server. Saranno testate diverse applicazioni open-source per realizzare configurazioni centralizzate adatte all’analisi post-evento, alla rilevazione real-time di possibili anomalie e alla implementazione di contromisure per impedire il ripetersi di eventi rischiosi per il funzionamento delle macchine.
Biotecnologie e
Biofarmaceutica