511 resultados para Modelli termici IGBT
Resumo:
Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
Questa tesi presenta una rassegna delle principali tecnologie informatiche per la gestione efficace ed efficiente delle librerie digitali. Viene posto l'accento sull'analisi comparativa delle tecnologie e dei modelli di rappresentazione del dato bibliografico presenti allo stato dell'arte.
Resumo:
La ricerca scientifica oggetto della seguente tesi verte sullo studio di problematiche mosse dalla collaborazione Azienda-Università nell’ambito di sili contenenti materiale granulare, soggetti a sollecitazione sismica. Si è indagato sul comportamento di tali strutture a mezzo di due modelli, uno raffinato e l'altro semplificato, soggetti alle medesime combinazioni. Un aspetto interessante, introdotto nella modellazione, è stato quello di considerare la lamiera corrugata come una piastra ortotropa. Si sono riportate le linee guida per la progettazione e la verifica dei profili in parete sottile. Discussione e validazione dei risultati numerici.
Resumo:
In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.
Resumo:
Nel presente elaborato vengono approfonditi i principali metodi di posizionamento attualmente utilizzati, ossia il GPS e il GPS differenziale, con particolare riferimento a strutture posizionate in mare. Gli stessi sono utilizzati per il monitoraggio della subsidenza e dei movimenti tettonici cui le strutture offshore sono soggette, che, essendo movimenti dell’ordine di qualche millimetro all'anno, richiedono accuratezza nelle misure. Nell'ultima parte della tesi si è provveduto ad analizzare una serie di dati, derivanti da rilevamenti GPS, al fine di valutare gli effetti termici sulla struttura emersa di una piattaforma offshore.
Resumo:
Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.
Resumo:
In questo elaborato si affronta lo studio della tecnica di sopraelevazione di edifici esistenti in muratura con strutture in legno di tipo XLAM. Le sopraelevazioni, sebbene non siano una tipologia di intervento ancora così diffusa in Italia, offrono numerosi vantaggi e, in tale contesto, le caratteristiche del legno si prestano perfettamente a rendere vantaggioso e pratico questo sistema costruttivo. Partendo dall’analisi delle diverse caratteristiche e proprietà meccaniche che contraddistinguono la muratura e il legno, viene trattata l’interazione tra i due materiali all’interno della medesima struttura, concentrandosi sulla corretta progettazione degli elementi di collegamento. Vengono creati una serie di modelli agli elementi finiti per riprodurre il comportamento di un edificio esistente in muratura allo stato di fatto e a seguito degli interventi di sopraelevazione, analizzando le sollecitazioni che la parte di struttura sopraelevata genera sulla sottostruttura. Lo studio prevede la variazione dell’input sismico, prendendo in considerazione diversi valori di accelerazione di picco (da 0,35g a 0,05g). Particolare attenzione viene riservata per i collegamenti metallici tra sopraelevazione lignea e sottostruttura in muratura. Si propongono due diverse tecniche di sopraelevazione in XLAM: a parete unica e a pareti separate.
Radiotherapy with scanning carbon ion beams: biological dose analysis for partial treatment delivery
Resumo:
L’uso di particelle cariche pesanti in radioterapia prende il nome di adroterapia. L’adroterapia permette l’irraggiamento di un volume bersaglio minimizzando il danno ai tessuti sani circostanti rispetto alla radioterapia tradizionale a raggi X. Le proprietà radiobiologiche degli ioni carbonio rappresentano un problema per i modelli radiobiologici a causa della non linearità della loro efficacia biologica. In questa tesi presenteremo gli algoritmi che possono essere usati per calcolare la dose fisica e biologica per un piano di trattamento del CNAO (Centro Nazionale Adroterapia Oncologica). Un caso di particolare interesse è l’eventualità che un piano di trattamento venga interrotto prima del dovuto. A causa della non linearità della sopravvivenza cellulare al variare della quantità di dose ricevuta giornalmente, è necessario studiare gli effetti degli irraggiamenti parziali utilizzando algoritmi che tengano conto delle tante variabili che caratterizzano sia i fasci di ioni che i tessuti irraggiati. Nell'ambito di questa tesi, appositi algoritmi in MATLAB sono stati sviluppati e implementati per confrontare la dose biologica e fisica assorbita nei casi di trattamento parziale.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
In questa tesi viene analizzato un problema di ottimizzazione proposto da alcuni esercizi commerciali che hanno la necessita` di selezionare e disporre i propri ar- ticoli in negozio. Il problema nasce dall’esigenza di massimizzare il profitto com- plessivo atteso dei prodotti in esposizione, trovando per ognuno una locazione sugli scaffali. I prodotti sono suddivisi in dipartimenti, dai quali solo un ele- mento deve essere selezionato ed esposto. In oltre si prevede la possibilita` di esprimere vincoli sulla locazione e compatibilita` dei prodotti. Il problema risul- tante `e una generalizzazione dei gia` noti Multiple-Choice Knapsack Problem e Multiple Knapsack Problem. Dopo una ricerca esaustiva in letteratura si `e ev- into che questo problema non `e ancora stato studiato. Si `e quindi provveduto a formalizzare il problema mediante un modello di programmazione lineare intera. Si propone un algoritmo esatto per la risoluzione del problema basato su column generation e branch and price. Sono stati formulati quattro modelli differenti per la risoluzione del pricing problem su cui si basa il column generation, per individuare quale sia il piu` efficiente. Tre dei quattro modelli proposti hanno performance comparabili, mentre l’ultimo si `e rivelato piu` inefficiente. Dai risul- tati ottenuti si evince che il metodo risolutivo proposto `e adatto a istanze di dimensione medio-bassa.
Resumo:
Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
La realtà virtuale è un campo in continua crescita e in costante studio, in particolare nell'applicazione nel campo del gaming e nella formazione. In questa tesi sono stati confrontati e testati due visori per la realtà virtuale di tipo immersivo: OSVR e Oculus Rift DK2. Per il confronto dei due dispositivi sono stati creati su Blender due modelli: una rappresentazione tridimensionale di Times Square molto realistica (sfruttando Google Street View per la visualizzazione degli edifici e dei banner pubblicitari) e un circuito di Go Kart stile cartoon. Successivamente alla creazione di questi, è stato utilizzato il motore grafico Unity per l'aggiunta della dinamica dei componenti dei visori e il completamento dei due progetti, per esempio l'utilizzo degli script per il movimento del go kart. Tramite lo strumento Profiler e il Frame Debugger di Unity sono stati eseguiti i test sulle performance e sono state svolte le considerazioni finali sui visori. I risultati ottenuti possono essere d'aiuto per uno studio successivo sulla realtà virtuale immersiva ed essere una base di partenza per le migliorie da adottare con lo scopo di ottenere migliori prestazioni ed una maggiore interattività con l'utente.
Resumo:
L'obiettivo della tesi è proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarità dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilità dell’approccio adottato nell'ambito del Self-Management di malattie croniche.