453 resultados para fulminazione indiretta, sovratensione indotta, algoritmo genetico, posizionamento degli scaricatori, rete di distribuzione compatta


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato svolto presso il servizio di Fisica Sanitaria del Policlinico Sant'Orsola-Malpighi di Bologna. Lo studio si è concentrato sul confronto tra le tecniche di ricostruzione standard (Filtered Back Projection, FBP) e quelle iterative in Tomografia Computerizzata. Il lavoro è stato diviso in due parti: nella prima è stata analizzata la qualità delle immagini acquisite con una CT multislice (iCT 128, sistema Philips) utilizzando sia l'algoritmo FBP sia quello iterativo (nel nostro caso iDose4). Per valutare la qualità delle immagini sono stati analizzati i seguenti parametri: il Noise Power Spectrum (NPS), la Modulation Transfer Function (MTF) e il rapporto contrasto-rumore (CNR). Le prime due grandezze sono state studiate effettuando misure su un fantoccio fornito dalla ditta costruttrice, che simulava la parte body e la parte head, con due cilindri di 32 e 20 cm rispettivamente. Le misure confermano la riduzione del rumore ma in maniera differente per i diversi filtri di convoluzione utilizzati. Lo studio dell'MTF invece ha rivelato che l'utilizzo delle tecniche standard e iterative non cambia la risoluzione spaziale; infatti gli andamenti ottenuti sono perfettamente identici (a parte le differenze intrinseche nei filtri di convoluzione), a differenza di quanto dichiarato dalla ditta. Per l'analisi del CNR sono stati utilizzati due fantocci; il primo, chiamato Catphan 600 è il fantoccio utilizzato per caratterizzare i sistemi CT. Il secondo, chiamato Cirs 061 ha al suo interno degli inserti che simulano la presenza di lesioni con densità tipiche del distretto addominale. Lo studio effettuato ha evidenziato che, per entrambi i fantocci, il rapporto contrasto-rumore aumenta se si utilizza la tecnica di ricostruzione iterativa. La seconda parte del lavoro di tesi è stata quella di effettuare una valutazione della riduzione della dose prendendo in considerazione diversi protocolli utilizzati nella pratica clinica, si sono analizzati un alto numero di esami e si sono calcolati i valori medi di CTDI e DLP su un campione di esame con FBP e con iDose4. I risultati mostrano che i valori ricavati con l'utilizzo dell'algoritmo iterativo sono al di sotto dei valori DLR nazionali di riferimento e di quelli che non usano i sistemi iterativi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il rilascio di detriti d’usura metallici è una grave problematicità connessa ai sistemi protesici, e principalmente riguarda le protesi d’anca ad accoppiamento metallo su metallo in lega CoCr. La presenza di un livello di ioni Co nel siero che supera la soglia di tossicità è correlata a metallosi periprotesica eal fallimento del l’impianto. Recentemente è emersa un’altra casistica, presumibilmente connessa alla distribuzione e accumulo di questi ioni in tessuti di organi anche lontani dall’impianto, che si manifesta con una sintomatologia sistemica analoga a casi noti di avvelenamento da Cobalto. Nel contesto di questa nuova patologia sarebbe di grande interesse la possibilità di monitorare in-vivo la distribuzione del Cobalto rilasciato da protesi articolari, in organi o tessuti di pazienti che manifestano alti ivelli ionici di Co nel siero utilizzando metodiche non invasive come l’NMR. L’ipotesi sperimentale di applicabilità prende spunto dalle proprietà magnetiche che alcuni composti del Cobalto possono presentare nell’organismo. In questo lavoro sperimentale, nato dalla collaborazione tra il laboratorio NMR del DIFA dell’Università di Bologna e l’Istituto Ortopedico Rizzoli (IOR) di Bolgna, si presentano i risultati relativi allo studio di fattibilità condotto con diverse metodiche di rilassometria NMR su campioni biologici in presenza di Co. L’obiettivo riguarda la caratterizzazione delle proprietà di rilassamento con elettromagnete a temperatura ambiente e fisiologica, e la valutazione delle dinamiche molecolari dai profili NMRD ottenuti alle basse frequenze con metodica Fast Field Cycling, dei nuclei 1H di tali sistemi in presenza di Co.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato di tesi, viene progettata ed implementata una soluzione per gestire il processo di handover in ambiente Android. Tale proposta, è costituita da un algoritmo in grado di gestire automaticamente le interfacce di connessione dei dispostivi, in relazione alle preferenze e agli spostamenti effettuati dall'utente. Le prove sperimentali effettuate, confermano che tale proposta è una buona base per risolvere il problema dell'handover e si presta bene a cooperare con altri protocolli quali ABPS (Always Best Packet Switching). Inoltre l'applicazione si presta bene ad un semplice utilizzo e può essere impiegata anche come servizio eseguito in background, non richiedendo frequenti interazioni da parte dell'utente. Oltre all'algoritmo citato in precedenza, sono stati proposti altri dettagli implementativi, non presenti in letteratura. In particolare, vengono modificate alcune impostazioni di sistema, accedendo agli opportuni file, in modo tale che Android gestisca correttamente le scansioni delle interfacce e la loro attivazione/disattivazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi tratta dell'influenza cognitivo-emozionale che gli avatar esercitano sui gameplayers all'interno del mondo virtuale, nella fattispecie i videogiochi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il documento illustra le funzionalita' della tecnologia NFC, descrive in maniera dettagliata le API pubblicate da Google per lavorare con NFC su Android, e mostra un caso di studio nel contesto di controllo degli accessi..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Implementazione di un algoritmo sdf per la determinazione dello spessore di componenti meccanici

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi si pone l’obiettivo di analizzare le principali metodologie per la stima delle conseguenze degli scenari incidentali propri degli stabilimenti che producono, operano o sono oggetto di stoccaggio di materiale esplosivo. Le sostanze esplosive sono utilizzate in innumerevoli attività civili, industriali e militari e considerando la loro intrinseca pericolosità, derivante dalla capacità di generare in uno spazio ridottissimo e in un tempo brevissimo una enorme quantità di energia, sono soggetti a tutta una serie di norme. Tali norme non solo classificano gli esplosivi ma ne regolamentano ogni utilizzo, dalla produzione, ai vari impieghi, allo stoccaggio fino allo smaltimento. Gli stabilimenti che detengono esplosivi possono essere classificati come a rischio di incidente rilevante e in quanto tali si trovano a dover sottostare alle varie direttive Seveso, da questo punto di vista si analizzano le caratteristiche a livello nazionale e regionale degli stabilimenti R.I.R. che operano con esplosivi. All’interno della tesi viene svolta un’analisi storica degli incidenti che hanno interessato gli stabilimenti che detengono esplosivi negli ultimi anni a livello mondiale, in modo tale da poter valutare quali eventi incidentali possano riguardare questa specifica classe di stabilimenti. Vengono poi presentati i principali approcci metodologici utilizzati per poter valutare le conseguenze degli scenari incidentali. Nello specifico vengono descritte le metodologie della normativa italiana T.U.L.P.S., del documento francese Sècuritè Pirotecnique, dell’Air Force Manual americano e alcuni metodi basati sull’equivalenza al TNT rintracciabili nella letteratura specifica. Le metodologie elencate precedentemente vengono poi applicate ad un caso di studio costituito da uno stabilimento fittizio caratterizzato da specifiche quantità di esplosivi suddivise in vari locali, localizzati in un ipotetico territorio. Dalla valutazione dei risultati ottenuti dall’applicazione dei vari approcci metodologici al caso studio è emerso un auspicabile proseguimento delle indagini relative alle metodologie relative alla quantificazione delle conseguenze degli scenari incidentali propri degli stabilimenti che detengono esplosivi con l’obiettivo di giungere ad una maggior standardizzazione dei metodi di calcolo che possa poi riflettersi anche in indicazioni uniformi a livello normativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Presentazione di un'applicazione per Windows Phone in grado di contare il numero dei passi effettuati e stimare la distanza percorsa. Tale stima viene effettuata sulla base della lunghezza del passo calcolata istante per istante tramite un algoritmo in base all'altezza di una persona e alla frequenza di passo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo della tesi è riconoscere i fattori di successo e i principali limiti legati all’implementazione dei progetti di recupero degli oli domestici sul territorio italiano. Il problema nasce dall’ esigenza di gestire in modo efficiente la raccolta differenziata di questo rifiuto che, se gettato nello scarico di casa o nel lavandino, provoca impatti ambientali rilevanti rendendo particolarmente difficoltoso e dispendioso il trattamento delle acque reflue e causa gravi danni agli ecosistemi naturali. La questione è da tempo inquadrata e disciplinata dalle direttive comunitarie in materia di rifiuti e dalla strategia “Europa2020” che ha come obiettivo principale una crescita intelligente, sostenibile ed inclusiva. A livello nazionale, invece, il Testo Unico Ambientale assolve alla funzione principale di riordino e coordinamento della disciplina, dando attuazione ai principi comunitari in materia e conformando l’ordinamento nazionale agli obiettivi e alle priorità individuate dal legislatore europeo. Gli oli esausti domestici sono un rifiuto scomodo e complesso da gestire ma la valorizzazione energetica può essere una valida alternativa ai sistemi di smaltimento classici. Infatti, attraverso un semplice processo chimico l’olio da cucina usato può essere trasformato in biodiesel. Questo particolare biocombustibile rispetta tutti i criteri di sostenibilità imposti dalla Comunità Europea e riduce, inoltre, l’impatto della produzione di biocarburanti sull’agricoltura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi tratta la tematica delle web API implementate secondo i vincoli dello stile architetturale ReST e ne propone un esempio concreto riportando la progettazione delle API di un sistema di marcature realizzato in ambito aziendale.