321 resultados para Ottimizzazione
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
Questo studio concerne uno studio di fattibilità per l'applicazione dei "positive displacement motors" in ambienti ambienti fortemente critici, soggetti ad alta pressione e alta temperatura. Tali motori sono utilizzati nell'industria Oil & Gas per la perforazione di pozzi petroliferi. L’analisi è stata portata a termine attraverso definizione dell’intervallo di temperatura per cui le performance degli strumenti in commercio presenta il maggior numero di failures, compreso tra i 175°C e i 225°C , e per il quale si vuole riuscire a limitare i rischi connessi e le criticità associate, garantendo così il raggiungimento dei target con un maggior grado di affidabilità e disponibilità del PDM utilizzato. Analizzando le sollecitazioni agenti sul motore durante le fasi di utilizzo, è stato possibile rilevare le principali cause di rottura e malfunzionamento che, nella maggior parte dei casi, possono essere attribuite al rigonfiamento e alla degradazione del materiale elastomerico che costituisce lo statore della power section. Investigando in merito alle differenze e alle proprietà di resistenza di numerosi materiali elastomerici a diversi range di temperatura, sono stati evidenziati dei margini di ottimizzazione in particolare relativi alla potenziale riduzione e totale sostituzione della superficie elastomerica con materiale metallico. Ciò ha fatto si che fosse necessario un approfondimento sulle caratteristiche degli acciai e delle leghe metalliche, in termini di resistenza a corrosione, costo del materiale, resistenza meccanica e della capacità di mantenere elevate proprietà meccaniche con l’aumento della temperatura, al fine di individuare i migliori “candidati” per sostituire interamente il materiale elastomerico dello statore in materiale metallico e risolvere così il problema dell’applicazione dei PDM in ambienti HT-HP.
Resumo:
La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.
Resumo:
Con questa tesi di laurea si muovono i primi passi di una ricerca applicata finalizzata alla costruzione-deposizione di materiale da parte di sciami di mini-robot dal comportamento indipendente che si coordinano tramite segnali lasciati e rilevati nell’ambiente in cui si muovono. Lo sviluppo di tecniche di progettazione e fabbricazione digitale ha prodotto un aumento nel grado di interconnessione tra tecnologia e design, dunque, di nuove possibilità tettoniche. Le relazioni tettoniche tradizionali stanno infatti subendo una trasformazione radicale, potendo essere esplicitamente informate e dunque mediate attraverso gli strumenti digitali dall’ideazione alla produzione. Questa mediazione informata del contenuto tettonico (che opera costantemente) è distintivo di un approccio material-based alla progettazione che aumenta l’integrazione tra struttura, materia e forma entro le tecnologie di fabbricazione (R.Oxman). Dei numerosi processi di fabbricazione per l’architettura che si servono di tecnologia robotica, pochi sono capaci di superare la logica gerarchica, rigida e lineare-sequenziale che serve di fatto agli obiettivi di automazione ed ottimizzazione. La distribuzione di forme di intelligenza semplificata ad un numero elevato di unità robot è quindi qui proposta come alternativa al modello appena descritto. Incorporando semplici decisioni di carattere architettonico negli agenti-robot che costituiscono il sistema distribuito di entità autonome, la loro interazione e le decisioni prese individualmente producono comportamento collettivo e l’integrazione delle suddette relazioni tettoniche. Nello sviluppo del progetto, si è fatto così riferimento a modelli comportamentali collettivi (di sciame) osservabili in specie comunitarie che organizzano strutture materiali -come termiti e vespe- ed in organismi semplici -come le muffe cellulari della specie Physarum polycephalum. Per queste specie biologiche il processo di costruzione non dipende da un ‘piano generale’ ma è guidato esclusivamente da azioni dei singoli individui che comunicano lasciando tracce chimiche nell’ambiente e modificano il loro comportamento rilevando le tracce lasciate dagli altri individui. A questo scopo, oltre alle simulazioni in digitale, è stato indispensabile sviluppare dei prototipi funzionali di tipo fisico, ovvero la realizzazione di mini-robot dal movimento indipendente, in grado di coordinarsi tra loro tramite segnali lasciati nell’ambiente e capaci di depositare materiale.
Resumo:
La tesi propone una soluzione middleware per scenari in cui i sensori producono un numero elevato di dati che è necessario gestire ed elaborare attraverso operazioni di preprocessing, filtering e buffering al fine di migliorare l'efficienza di comunicazione e del consumo di banda nel rispetto di vincoli energetici e computazionali. E'possibile effettuare l'ottimizzazione di questi componenti attraverso operazioni di tuning remoto.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Ottimizzazione dei collettori solari a concentrazione mediante strumenti di misura per il calcolo della radiazione solare concentrata. Attività svolta presso centro ENEA TRISAIA nel laboratorio qualificazione componenti solari a bassa e media temperatura.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Tesi volta all'ottimizzazione di un impianto di pirolisi sia dal punto di vista termochimico sia dal punto di vista energetico, caratterizzata dalla parte sperimentale costituita da prove eseguite direttamente sull'impianto.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Lo scopo di questa tesi è lo sviluppo di un’interfaccia Web per un software di ottimizzazione, il cui scopo è la definizione dell’orario delle lezioni universitarie. Presenteremo il modello risolutivo al problema del timetabling proposto da Daskalaki et alii, e lo adatteremo alle esigenze della facoltà di Informatica dell’Università di Bologna. In effetti, la necessità di costituire un software atto alla risoluzione del problema dell’orario universitario rappresenta il tema principale trattato in questa tesi, che si ripropone, oltretutto, la costruzione di un’interfaccia grafica accattivante e intuitiva, che possa agevolmente essere utilizzata da docenti e personale di segreteria.
Resumo:
Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.
Resumo:
il ruolo della tesi è stato di valorizzare attraverso la valutazione di un peso l'urgenza e la necessità di cure dei pazienti processati da un modello di ottimizzazione. Essa si inserisce all'interno di un progetto di creazione di tale modello per la schedulazione di interventi in un reparto chirurgico di un generico ospedale.si è fatto uso del software ibm opl optimization suite.
Resumo:
La scoperta dei semiconduttori amorfi ha segnato l’era della microelettronica su larga scala rendendo possibile il loro impiego nelle celle solari o nei display a matrice attiva. Infatti, mentre i semiconduttori a cristalli singoli non sono consoni a questo tipo di applicazioni e i s. policristallini presentano il problema dei bordi di grano, i film amorfi possono essere creati su larga scala (>1 m^2) a basse temperature (ad es. <400 °C) ottenendo performance soddisfacenti sia su substrati rigidi che flessibili. Di recente la ricerca sta compiendo un grande sforzo per estendere l’utilizzo di questa nuova elettronica flessibile e su larga scala ad ambienti soggetti a radiazioni ionizzanti, come lo sono i detector di radiazioni o l’elettronica usata in applicazioni spaziali (satelliti). A questa ricerca volge anche la mia tesi, che si confronta con la fabbricazione e la caratterizzazione di transistor a film sottili basati su ossidi semiconduttori ad alta mobilità e lo studio della loro resistenza ai raggi X. La micro-fabbricazione, ottimizzazione e caratterizzazione dei dispositivi è stata realizzata nei laboratori CENIMAT e CEMOP dell’Università Nova di Lisbona durante quattro mesi di permanenza. Tutti i dispositivi sono stati creati con un canale n di ossido di Indio-Gallio-Zinco (IGZO). Durante questo periodo è stato realizzato un dispositivo dalle ottime performance e con interessanti caratteristiche, una delle quali è la non variazione del comportamento capacitivo in funzione della frequenza e la formidabile resistenza alle radiazioni. Questo dispositivo presenta 114 nm di dielettrico, realizzato con sette strati alternati di SiO2/ Ta2O5. L’attività di ricerca svolta al Dipartimento di Fisica e Astronomia di Bologna riguarda prevalentemente lo studio degli effetti delle radiazioni ionizzanti su TFTs. Gli esperimenti hanno rivelato che i dispositivi godono di una buona stabilità anche se soggetti alle radiazioni. Infatti hanno mostrato performance pressoché inalterate anche dopo un’esposizione a 1 kGy di dose cumulativa di raggi X mantenendo circa costanti parametri fondamentali come la mobilità, il threshold voltage e la sub-threshold slope. Inoltre gli effetti dei raggi X sui dispositivi, così come parametri fondamentali quali la mobilità, si sono rivelati essere notevolmente influenzati dallo spessore del dielettrico.