606 resultados para Modelli di ottimizzazione,Ricerca Operativa,Posti letto,Degenza


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scavo di un tunnel in ammassi rocciosi comporta una ridistribuzione degli stress nell’intorno del foro e induce spesso deformazioni della superficie che si traducono frequentemente in movimenti verticali verso il basso. In letteratura esistono soluzioni analitiche in grado di quantificare gli stress e la subsidenza indotti da uno scavo in sotterraneo. Tali soluzioni funzionano però solo per semplici casi. Al fine di valutare i risultati delle soluzioni analitiche e poter considerare modelli di materiale che si avvicinano maggiormente al comportamento reale del terreno, gli stress e le deformazioni indotte vengono spesso analizzati attraverso modellazioni numeriche. Tali modellazioni vengono svolte di norma tramite l’utilizzo di codici numerici bidimensionali alle differenze finite o agli elementi finiti. L’utilità di un approccio modellistico è particolarmente evidente nel caso dello studio degli spostamenti indotti in un versante dallo scavo di un tunnel. In questi casi le analisi numeriche mostrano che se si considera un versante ideale costituito da materiale elastico, lo scavo provoca spostamenti che tendono a convergere verso il tunnel. Se si considera invece un versante costituito da materiale elasto-plastico, lo scavo, in alcuni casi, può causare uno spostamento verso valle e verso il basso dell’intero versante. Si è voluto quindi indagare il complesso rapporto tra scavo e deformazioni utilizzando un approccio modellistico. A tale scopo è stato condotto uno studio sul tipo di deformazioni che avvengono in un versante teorico, interessato da scavo, a partire da differenti condizioni di stabilità iniziale e considerando tunnel di diverse dimensioni e contropressioni. I versanti considerati nelle modellazioni riproducono le condizioni tipiche dei versanti appenninici argillosi, caratterizzati da basso angolo di attrito interno, geometrie relativamente poco inclinate e coesione fortemente variabile. I risultati ottenuti sono stati successivamente testati analizzando un caso reale di interazione scavo-deformazione relativo a un versante appenninico costituito da Argille a Palombini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi verranno affrontati due argomenti principali. Il primo sono le tecnologie wearable, comprendendo anche la notazione più generica di tecnologie bearable, che si stanno sempre più diffondendo negli ultimi anni; il secondo sono le BAN (Body Area Network), reti di sensori e dispositivi posti sul corpo umano, utilizzate per rendere possibile la comunicazione e l'interazione fra i device wearable. Si partirà da una trattazione di tipo generico degli argomenti, descrivendo l'architettura fisica delle tecnologie, con focalizzazione sull'aspetto informatico prevalentemente che su quello elettronico e telecomunicazionistico. Si parlerà degli attuali impieghi dei dispositivi e delle reti, e delle loro probabili evoluzioni future. Si introdurranno poi i protocolli di comunicazione principali e se ne analizzeranno le differenze, decretando se sia o meno conveniente puntare su uno o sull'altro rispetto alle esigenze di progetto. Verrà introdotto il sistema operativo Android, descrivendo la sua architettura e fornendo le informazioni basilari per comprendere al meglio il rapporto esistente con la tecnologia Bluetooth.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di Tesi si inserisce nell’ambito della previsione e caratterizzazione spaziale di fenomeni convettivi, tipicamente intensi e a carattere locale, come i sistemi temporaleschi organizzati che spesso sono i protagonisti di eventi calamitosi importanti. Lo studio è stato condotto in modo tale da poter apportare un contributo ai sistemi previsionali, i quali attualmente non consentono una valutazione accurata ed una caratterizzazione spaziale attendibile di detti fenomeni temporaleschi (Elisabetta Trovatore, Ecoscienza, numero 4, 2012). Lo scopo è stato quello di verificare l’esistenza caratteristiche spaziali comuni a questa tipologia di eventi di precipitazione mediante un confronto tra la curva di riduzione della precipitazione media all’area, ottenuta dalle mappe di precipitazione cumulata oraria desunte da radar meteorologici e da mappe corrispondenti ricavate a partire dai dati pluviometrici osservati al suolo servendosi di tre modelli di interpolazione spaziale: Kriging ordinario (con variogramma desunto da dati ai pluviometri e da dati al radar), Inverso delle Distanze Pesate (Inverse Distance Weighted, IDW) e Poligoni di Voronoi.Le conclusioni del lavoro di Tesi hanno evidenziato che: - la curva di riduzione della precipitazione valutata da dati radar viene in generale meglio approssimata da due metodi: il Kriging ordinario, che utilizza come modello di variogramma teorico quello dedotto da misure ai pluviometri, e le distanze inverse pesate (IDW, Inverse Distance Weighted); - paragonando le curve di riduzione della precipitazione media all’area dedotte da radar si è potuta notare l’esistenza di quattro curve, di cui tre relative ad eventi che hanno registrato valori elevati di intensità di precipitazione (superiori ai 140 mm/h), che presentano un comportamento analogo, mentre nella porzione superiore del grafico sono presenti due curve che non seguono tale andamento e che sono relative ad eventi convettivi meno intensi; - non esiste una distanza alla quale tutti i variogrammi, desunti da dati radar, raggiungono la stazionarietà ma si è visto come questa, per i sei casi di studio, vari tra 10000 e 25000 metri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo studio concerne uno studio di fattibilità per l'applicazione dei "positive displacement motors" in ambienti ambienti fortemente critici, soggetti ad alta pressione e alta temperatura. Tali motori sono utilizzati nell'industria Oil & Gas per la perforazione di pozzi petroliferi. L’analisi è stata portata a termine attraverso definizione dell’intervallo di temperatura per cui le performance degli strumenti in commercio presenta il maggior numero di failures, compreso tra i 175°C e i 225°C , e per il quale si vuole riuscire a limitare i rischi connessi e le criticità associate, garantendo così il raggiungimento dei target con un maggior grado di affidabilità e disponibilità del PDM utilizzato. Analizzando le sollecitazioni agenti sul motore durante le fasi di utilizzo, è stato possibile rilevare le principali cause di rottura e malfunzionamento che, nella maggior parte dei casi, possono essere attribuite al rigonfiamento e alla degradazione del materiale elastomerico che costituisce lo statore della power section. Investigando in merito alle differenze e alle proprietà di resistenza di numerosi materiali elastomerici a diversi range di temperatura, sono stati evidenziati dei margini di ottimizzazione in particolare relativi alla potenziale riduzione e totale sostituzione della superficie elastomerica con materiale metallico. Ciò ha fatto si che fosse necessario un approfondimento sulle caratteristiche degli acciai e delle leghe metalliche, in termini di resistenza a corrosione, costo del materiale, resistenza meccanica e della capacità di mantenere elevate proprietà meccaniche con l’aumento della temperatura, al fine di individuare i migliori “candidati” per sostituire interamente il materiale elastomerico dello statore in materiale metallico e risolvere così il problema dell’applicazione dei PDM in ambienti HT-HP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel campo dell’automotive, negli ultimi anni, gli sviluppi sono stati consistenti: infatti sono state introdotte sul mercato molte novità, tra le quali vetture con propulsione elettrica o ibrida. Il controllo del motore termico durante il moto è studiato da moltissimi anni, mentre il controllo di un motore elettrico è tuttora in fase di continua ricerca e sviluppo. Infatti, con l’introduzione di tecniche vettoriali, si sono ottenuti notevoli miglioramenti a livello di qualità di utilizzo del motore elettrico stesso. In particolare, l’introduzione di un nuovo metodo di controllo che prende il nome di “controllo predittivo” cerca di ottimizzare ulteriormente la propulsione elettrica. Oggetto di studio in questa tesi è il controllo predittivo implementato per la regolazione delle correnti di statore in un motore brushless. Dopo una presentazione di carattere generale, che spazia dalle tipologie di vetture elettriche alle batterie utilizzate a bordo, passando dai vari tipi di propulsori elettrici verosimilmente utilizzabili, viene descritto, a livello teorico, il sistema utilizzato nelle simulazioni in questa tesi, prestando particolare attenzione alla macchina sincrona brushless a magneti permanenti ed al suo controllo vettoriale oltre che alla tecnica per un corretto deflussaggio. Successivamente sono descritti il controllo predittivo di corrente utilizzato nelle simulazioni, con un occhio di riguardo alla compensazione del ritardo di calcolo necessario per ottimizzare ulteriormente il controllo del motore di trazione elettrico, e la modellizzazione del veicolo elettrico ibrido in ambiente Simulink di Matlab, rimandando alle Appendici A e B per la eventuale consultazione dei codici implementati. Infine sono presentati i risultati ottenuti con vari tipi di prove per verificare se effettivamente il veicolo esegue ciò che è richiesto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettazione meccanica di una cella di carico estensimetrica per misure aerodinamiche in galleria del vento per modelli di elicottero.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si cerca di fornire un quadro generale sulle Opzioni Asiatiche dandone prima una descrizione in termini economici e successivamente una classificazione matematica più rigorosa. Nel primo capitolo vengono presentati strumenti matematici e finanziari indispensabili per affrontare la comprensione dell'argomento centrale: vengono esposti i concetti di derivato e di strategia d'arbitraggio ed inoltre viene mostrato il modello di mercato a tempo discreto; in particolar modo viene descritto il modello binomiale come esempio di mercato completo. Nel secondo capitolo viene fatta una breve introduzione sulle Opzioni Esotiche di cui sono un particolare esempio le Opzioni Asiatiche, le quali vengono successivamente classificate e descritte più dettagliatamente. Infine nel terzo capitolo viene introdotto il problema della valutazione e della copertura di un'Opzione Asiatica, trattando una particolare tecnica utilizzata nei modelli di mercato discreti di tipo binomiale, la tecnica ad albero, che viene poi applicata ad un esempio reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale “S. Maria delle Croci” di Ravenna, Azienda Unità Sanitaria Locale della Romagna, ed ha come obiettivo lo sviluppo di un metodo per l’individuazione dell’atrio sinistro in sequenze di immagini ecografiche intracardiache acquisite durante procedure di ablazione cardiaca transcatetere per il trattamento della fibrillazione atriale. La localizzazione della parete posteriore dell'atrio sinistro in immagini ecocardiografiche intracardiache risulta fondamentale qualora si voglia monitorare la posizione dell'esofago rispetto alla parete stessa per ridurre il rischio di formazione della fistola atrio esofagea. Le immagini derivanti da ecografia intracardiaca sono state acquisite durante la procedura di ablazione cardiaca ed esportate direttamente dall’ecografo in formato Audio Video Interleave (AVI). L’estrazione dei singoli frames è stata eseguita implementando un apposito programma in Matlab, ottenendo così il set di dati su cui implementare il metodo di individuazione della parete atriale. A causa dell’eccessivo rumore presente in alcuni set di dati all’interno della camera atriale, sono stati sviluppati due differenti metodi per il tracciamento automatico del contorno della parete dell’atrio sinistro. Il primo, utilizzato per le immagini più “pulite”, si basa sull’utilizzo del modello Chan-Vese, un metodo di segmentazione level-set region-based, mentre il secondo, efficace in presenza di rumore, sfrutta il metodo di clustering K-means. Entrambi i metodi prevedono l’individuazione automatica dell’atrio, senza che il clinico fornisca informazioni in merito alla posizione dello stesso, e l’utilizzo di operatori morfologici per l’eliminazione di regioni spurie. I risultati così ottenuti sono stati valutati qualitativamente, sovrapponendo il contorno individuato all'immagine ecografica e valutando la bontà del tracciamento. Inoltre per due set di dati, segmentati con i due diversi metodi, è stata eseguita una valutazione quantitativa confrontatoli con il risultato del tracciamento manuale eseguito dal clinico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'attuale processo di sviluppo del software è abbastanza lontano dai canoni di sistematicità e correttezza propri di altre aree dell'ingegneria. L'obiettivo di questa Tesi è quello di fornire metodologie e strumenti realmente ingegneristici per la costruzione del software, attraverso l'introduzione di linguaggi general purpose per l'analisi e la progettazione, di robustezza industriale e con semantica formalmente definita. A partire da frasi corrette in tali linguaggi, le quali costituiscono a tutti gli effetti modelli di sistemi software, ci si propone la completa generazione del codice corrispondente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel dibattito riguardante la valorizzazione delle aree archeologiche il ruolo della museografia quale disciplina capace di conciliare saperi come quello archeologico e quello architettonico,e ancora, tra la cultura conservativa e quella progettuale. All' interno del laboratorio di laurea è stato sviluppato un progetto per il sito archeologico della città romana di Suasa che oltre a tenere conto delle tematiche generali attinenti alle più recenti posizioni della disciplina architettonica e museografica in rapporto all’archeologia, dia delle risposte progettuali calate all’interno di un preciso contesto culturale e territoriale. I nuovi manufatti devono sapersi relazionare ai caratteri del luogo in cui si collocano, aree poste in contesti esterni in una dimensione paesaggistica e culturale complessa e stratificata. Luogo e paesaggio costituiscono quindi i termini generali di un’indagine che assume il valore di una ricerca progressiva finalizzata alla conoscenza decisiva per la progettazione, di realtà fortemente caratterizzate dalla dimensione archeologica paesaggistica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.