582 resultados para ottimizzazione,trasporto


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi viene svolto un lavoro di modellazione del protocollo MAC 802.15.4 Wireless Personal Area Network (WPAN), per reti di sensori; dopodiché esso viene sottoposto ad una serie di analisi energetiche attraverso simulazioni nell'ambiente OMNeT++. Numerosi sono i parametri che sono stati considerati per caratterizzare al meglio le analisi effettuate, nonché le diverse condizioni iniziali. Il profilo energetico ottenuto è stato messo a confronto con quello del protocollo 802.15.4m per TVWS. I dati ottenuti sono stati elaborati con un algoritmo power control con l'obiettivo di raggiungere la massima ottimizzazione energetica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si prefigge l'obbiettivo di offrire una ricostruzione logico sistematica della disciplina giuridica che regola i trasporti pubblici locali in ambito regionale, statale e comunitario, affrontando le principali questioni interpretative e di coordinamento che esse pongono. Nella primo capitolo, viene analizzato l'evoluzione storica della normativa nazionale che regola il trasporto pubblico locale, soffermandosi soprattutto sulla riforma del trasporto pubblico locale introdotte dal d.lgs. 422/1997. Particolare attenzione è stata posta agli aspetti di programmazione e finanziamento nonché alle modalità di gestione del trasporto pubblico locale, in quanto il quadro normativo applicabile è caratterizzato da un’estrema complessità dovuta ai numerosi interventi legislativi. Nel secondo capitolo viene esaminato l'evoluzione dell'intervento comunitario in materi di trasporto pubblico locale, partendo dal (CE) n. 1191/69 che si limitava a disciplinare gli aiuti di Stato, fino alla normativa quadro per il settore (Regolamento (CE) n. 1370/2007). L'obbiettivo è quello di verificare se le scelte del legislatore italiano, per quanto concerne le modalità di gestione del trasporto pubblico locale possano dirsi coerenti con le scelte a livello comunitario previste dal Regolamento (CE) n. 1370/2007. Viene inoltre affronta la questione dell'articolazione della potestà normativa e amministrativa del settore dei trasporti pubblici locali nelle disposizioni del Titolo V della Costituzione. Lo studio si sofferma soprattutto sulla giurisprudenza della Corte costituzionale per tracciare una chiara individuazione del riparto delle competenze tra Stato e Regioni in materia. Infine nell'ultima parte, esamina le diverse problematiche interpretative e applicative della normativa che disciplina il settore del TPL, dovute all'azzeramento della normativa generale dei servizi pubblici locali di rilevanza economica in seguito al referendum abrogativo del 12 e 13 giugno 2011, nonché della illegittimità costituzionale della normativa contenuta nell'art 4 del d.l. n. 138/2011, ad opera della sentenza della Corte costituzionale n. 199/2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si occupa della progettazione, simulazione via software, caratterizzazione e realizzazione con microfresatrice di una tipologia di filtri passivi. Questo trattato si inserisce su una linea di ricerca già avanzata, che si occupa di studio e realizzazione di sistemi di ricetrasmissione wireless UWB di segnali provenienti da sensori per applicazioni biologiche. Lo scopo dello studio di questa tesi è l'ottimizzazione dell'efficienza del filtro, ovvero il miglioramento del rapporto segnale rumore R/S.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Verifica, riprogettazione e ottimizzazione di una struttura meccanica utilizzata per la realizzazione di radiografie a domicilio, per pazienti con impossibilità di movimento dallo stesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ogni giorno enormi quantità di dati sono prodotti come record dettagliati del comportamento di utilizzo del Web, ma l'obiettivo di trarne conoscenza rimane ancora una sfida. In questa trattazione viene descritto EOP(Eye-On-Portal), un framework di monitoring che si propone come strumento per riuscire a catturare informazioni dettagliate sulle componenti della pagina visitata dall'utente e sulle interazioni di quest'ultimo con il portale: i dati raccolti potrebbero avere utilità nell'ottimizzazione del layout e nell'usabilità del portale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.