273 resultados para protocolli, trasporto, ipv6
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
In questa tesi si è voluto interfacciare dispositivi di nuova generazione (Raspberry Pi), presenti in una topologia di rete già implementata, con dispositivi di vecchia generazione, come Router Cisco e Switch HP. Questi ultimi sono dispositivi fisici, mentre i Raspberry, tramite tool mininet e altre impostazioni, possono generare dispositivi virtuali. Si è quindi applicato un interfacciamento tra le due tipologie di apparati, creando una rete nuova, e adatta come caso a ricoprire le reti attuali, siccome questo è un esempio di come con poche modifiche si può intervenire su qualsiasi rete già operativa. Si sono quindi osservati i criteri generali su cui operano sia i router, che gli switch, e si sono osservati come questi interagiscono con un flusso di dati attraverso vari protocolli, alcuni rifacenti al modello ISO/OSI, altri all'OSPF.
Resumo:
Sono dette “challenged networks” quelle reti in cui lunghi ritardi, frequenti partizionamenti e interruzioni, elevati tassi di errore e di perdita non consentono l’impiego dei classici protocolli di comunicazione di Internet, in particolare il TCP/IP. Il Delay-/Disruption-Tolerant Networking (DTN) è una soluzione per il trasferimento di dati attraverso queste reti. L’architettura DTN prevede l’introduzione, sopra il livello di trasporto, del cosiddetto “bundle layer”, che si occupa di veicolare messaggi, o bundle, secondo l’approccio store-and-forward: ogni nodo DTN conserva persistentemente un bundle finché non si presenta l’opportunità di inoltrarlo al nodo successivo verso la destinazione. Il protocollo impiegato nel bundle layer è il Bundle Protocol, le cui principali implementazioni sono tre: DTN2, l’implementazione di riferimento; ION, sviluppata da NASA-JPL e più orientata alle comunicazioni spaziali; IBR-DTN, rivolta soprattutto a dispositivi embedded. Ciascuna di esse offre API che consentono la scrittura di applicazioni in grado di inviare e ricevere bundle. DTNperf è uno strumento progettato per la valutazione delle prestazioni in ambito DTN. La più recente iterazione, DTNperf_3, è compatibile sia con DTN2 che con ION nella stessa versione del programma, grazie all’introduzione di un “Abstraction Layer” che fornisce un’unica interfaccia per l’interazione con le diverse implementazioni del Bundle Protocol e che solo internamente si occupa di invocare le API specifiche dell’implementazione attiva. Obiettivo della tesi è estendere l’Abstraction Layer affinché supporti anche IBR-DTN, cosicché DTNperf_3 possa essere impiegato indifferentemente su DTN2, ION e IBR DTN. Il lavoro sarà ripartito su tre fasi: nella prima esploreremo IBR DTN e le sue API; nella seconda procederemo all’effettiva estensione dell’Abstraction Layer; nella terza verificheremo il funzionamento di DTNperf a seguito delle modifiche, sia in ambiente esclusivamente IBR-DTN, sia ibrido.
Resumo:
In questo lavoro viene effettuata un’analisi di membrane per la separazione di CO2 basate sul meccanismo di trasporto facilitato. Queste membrane sono caratterizzate da un supporto poroso impregnato di una fase liquida le cui proprietà chimico-fisiche vengono presentate in relazione alle performance di separazione fornite: si tratta di liquidi ionici che presentano gruppi funzionali in grado di reagire con la CO2 consentendo il trasporto facilitato del gas acido attraverso la membrana. Le prestazioni in termini di separazione di CO2 da miscele gas fornite da questa tecnologia vengono analizzate e confrontate con quelle offerte da altre tipologie di membrane: alcune basate sul meccanismo di solution-diffusion (membrane polimeriche e membrane impregnate di liquidi ionici room-temperature) ed altre caratterizzate da permeazione di CO2 con presenza di reazione chimica ottenuta mediante facilitatori (mobili o legati allo scheletro carbonioso del polimero costituente la membrana). I risultati ottenuti sono analizzati in merito alla possibile implementazione di tale sistema di separazione a membrana in processi di cattura di CO2 nell'ambito della tecnologia di Carbon Capture and Storage.
Resumo:
Questo lavoro di tesi si prefigge l’obiettivo di simulare il trasporto di organi destinati a trapianto sul territorio nazionale italiano. Lo scopo della simulazione è mettere in luce le criticità e le eventuali soluzioni alternative in modo da raggiungere un duplice obiettivo: la certezza di portare a compimento il trasporto da un ospedale ad un altro entro i tempi clinici necessari affinché l’organo sia ancora utilizzabile e la riduzione dei costi del trasporto, che negli ultimi anni si sono rivelati elevati a causa del ricorso frequente a voli di Stato. Nella prima parte del lavoro viene delineato il problema e le necessità di ottimizzazione della rete, dopodiché si illustra il modello creato per simulare la situazione di as-is ed infine si espone il modello da utilizzare in futuro, dove si prevedono i tempi futuri di percorrenza. Per la modellazione della situazione attuale sono stati utilizzati due livelli di dettaglio diversi, uno che si basa sulla suddivisione dei trapianti in ingresso e uscita da una regione specifica e uno che approfondisce ulteriormente la rete modellando gli spostamenti di città in città. I modelli predittivi presentati sono due, uno che considera tempi predittivi deterministici e uno che considera tempi stocastici. Dopo ciascuna modellazione vengono esposti i risultati e le statistiche più significative; vengono infine messi in evidenza gli aspetti critici e gli sviluppi futuri della simulazione. Il software scelto per creare e simulare il trasporto degli organi sulla rete è Arena.
Resumo:
L’obbiettivo che si pone questo lavoro è quello di combinare in un unico impianto due tecnologie utilizzate per scopi differenti (impianto integrato): un impianto di climatizzazione geotermico a bassa entalpia di tipo open-loop ed un impianto di bonifica delle acque di falda di tipo Pump&Treat. Il sito selezionato per lo studio è ubicato in via Lombardia, nell’area industriale di Ozzano dell’Emilia (BO), ed è definito “Ex stabilimento Ot-Gal”: si tratta di una galvanotecnica con trattamento di metalli, dismessa alla fine degli anni ’90. Durante una precedente fase di caratterizzazione del sito condotta dalla ditta Geo-Net Srl, sono stati rilevati in falda dei superamenti delle CSC previste dal D.lgs. 152/2006 di alcuni contaminanti, in particolare Tricloroetilene (TCE) e 1.1-Dicloroetilene (1.1-DCE). Successivamente, nel 2010-2011, Geo-net Srl ha eseguito una parziale bonifica delle acque di falda attraverso l’utilizzo di un impianto Pump and Treat. Grazie a tutti i dati pregressi riguardanti i monitoraggi, le prove e i sondaggi, messi a disposizione per questo studio da Geo-Net Srl, è stato possibile eseguire una sperimentazione teorica, in forma di modellazione numerica di flusso e trasporto, dell’impianto integrato oggetto di studio. La sperimentazione è stata effettuata attraverso l’utilizzo di modelli numerici basati sul codice di calcolo MODFLOW e su codici ad esso comunemente associati, quali MODPATH e MT3DMS. L’analisi dei risultati ottenuti ha permesso di valutare in modo accurato l’integrazione di queste due tecnologie combinate in unico impianto. In particolare, la bonifica all’interno del sito avviene dopo 15 dalla messa in attività. Sono stati anche confrontati i costi da sostenere per la realizzazione e l’esercizio dell’impianto integrato rispetto a quelli di un impianto tradizionale. Tale confronto ha mostrato che l’ammortamento dell’impianto integrato avviene in 13 anni e che i restanti 7 anni di esercizio producono un risparmio economico.
Resumo:
Questo lavoro di tesi studia e analizza le prestazioni di applicazioni basate sui protocolli HTTP/2 e WebSocket, affrontando, anche in maniera sperimentale, due differenti tecniche: polling e push.
Resumo:
I mondi di Smart City e Internet-of-Things si stanno ampliando notevolmente grazie all'evoluzione continua delle tecnologie. Tuttavia risultano escluse dall'ambito di interesse le zone rurali e decentralizzate perché spesso prive di un'infrastruttura di rete ben definita. A fronte di questo problema, i dispositivi che si trovano in queste zone potrebbero auto-organizzarsi per comunicare instaurando collegmenti di tipo peer-to-peer e utilizzando protocolli di disseminazione di informazioni basati su gossip. In questa tesi sono trattate le seguenti questioni e mediante alcune simulazioni al calcolatore sono riprodotti alcuni scenari per valutare le prestazioni degli algoritmi di Gossip with Fixed Probability e Conditional Broadcast e la diffusione delle informazioni tra i nodi all'interno di una rete creata in maniera opportunistica.
Resumo:
Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.
Resumo:
Il progresso nella tecnica di recupero e di rinforzo nelle strutture metalliche con i polimeri fibro-rinforzati FRP (fibre reinforced polymers). 1.1 Introduzione nelle problematiche ricorrenti delle strutture metalliche. Le strutture moderne di una certa importanza, come i grattacieli o i ponti, hanno tempi e costi di costruzione molto elevati ed è allora di importanza fondamentale la loro durabilità, cioè la lunga vita utile e i bassi costi di manutenzione; manutenzione intesa anche come modo di restare a livelli prestazionali predefiniti. La definizione delle prestazioni comprende la capacità portante, la durabilità, la funzionalità e l’aspetto estetico. Se il livello prestazionale diventa troppo basso, diventa allora necessario intervenire per ripristinare le caratteristiche iniziali della struttura. Strutture con una lunga vita utile, come per la maggior parte delle strutture civili ed edilizie, dovranno soddisfare esigenze nuove o modificate: i mezzi di trasporto ad esempio sono diventati più pesanti e più diffusi, la velocità dei veicoli al giorno d'oggi è aumentata e ciò comporta anche maggiori carichi di tipo dinamico.
Resumo:
Il cambiamento organizzativo costituisce oggi un elemento fondamentale per la sopravvivenza dell'impresa. Un approccio al cambiamento è costituito dal Total Quality Management (o Qualità Totale). La Qualità Totale pone il cliente e la sua soddisfazione al centro delle decisioni aziendali. Ciò presuppone un coinvolgimento di tutto il personale dell'impresa nell'attività di miglioramento continuo. Un sistema di gestione della Qualità Totale è rappresentato dalla Lean Manufacturing. Infatti, i punti essenziali della Lean Manufacturing sono il focus sul cliente, l'eliminazione degli sprechi ed il miglioramento continuo. L'obiettivo è la creazione di valore per il cliente e, quindi, l'eliminazione di ogni forma di spreco. E' necessario adottare un'organizzazione a flusso e controllare continuamente il valore del flusso nell'ottica del miglioramento continuo. Il Lead Time costituisce l'indicatore principale della Lean Manufacturing.I risultati principali della Lean Manufacturing sono: aumento della produttività, miglioramento della qualità del prodotto, riduzione dei lead time e minimizzazione delle scorte ed aumento della rotazione. Tutto ciò è applicato ad un caso aziendale reale. Il caso si compone di un'analisi dei processi di supporto, dell'analisi del capitale circolante (analisi dello stock e del flusso attuale e futuro) e dell'analisi del sistema di trasporto, con l'obiettivo di ridurre il più possibile il lead time totale del sistema.
Resumo:
In questa tesi è stato studiato l’effetto dell’esposizione della diatomea Skeletonema marinoi, una specie molto comune nel Nord Adriatico e importante per il suo annuale contributo alla produzione primaria, agli erbicidi maggiormente utilizzati nella pianura Padana e riscontrati in acque dolci e salmastre di zone limitrofe al mare Adriatico. Gli erbicidi scelti consistono in terbutilazina e metolachlor, i più frequentemente riscontrati sia nelle acque superficiali che in quelle sotterranee dell’area Padana, noti per avere un effetto di inibizione su vie metaboliche dei vegetali; inoltre è stato valutato anche l’effetto di un prodotto di degradazione della terbutilazina, la desetilterbutilazina, presente anch’esso in concentrazioni pari al prodotto di origine e su cui non si avevano informazioni circa la tossicità sul fitoplancton. L’esposizione delle microalghe a questi erbicidi può avere effetti che si ripercuotono su tutto l’ecosistema: le specie fitoplanctoniche, in particolare le diatomee, sono i produttori primari più importanti dell’ecosistema: questi organismi rivestono un ruolo fondamentale nella fissazione del carbonio, rappresentando il primo anello della catena alimentari degli ambienti acquatici e contribuendo al rifornimento di ossigeno nell’atmosfera. L’effetto di diverse concentrazioni di ciascun composto è stato valutato seguendo l’andamento della crescita e dell’efficienza fotosintetica di S. marinoi. Per meglio determinare la sensibilità di questa specie agli erbicidi, l’effetto della terbutilazina è stato valutato anche al variare della temperatura (15, 20 e 25°C). Infine, dal momento che gli organismi acquatici sono solitamente esposti a una miscela di composti, è stato valutato l’effetto sinergico di due erbicidi, entrambi somministrati a bassa concentrazione. Le colture di laboratorio esposte a concentrazioni crescenti di diversi erbicidi e, in un caso, anche a diverse temperature, indicano che l’erbicida al quale la microalga mostra maggiore sensibilità è la Terbutilazina. Infatti a parità di concentrazioni, la sensibilità della microalga alla Terbutilazina è risultata molto più alta rispetto al suo prodotto di degradazione, la Desetilterbutilazina e all’erbicida Metolachlor. Attraverso l’analisi di densità algale, di efficienza fotosintetica, di biovolume e di contenuto intracellulare di Carbonio e Clorofilla, è stato dimostrato l’effetto tossico dell’erbicida Terbutilazina che, agendo come inibitore del trasporto degli elettroni a livello del PS-II, manifesta la sua tossicità nell’inibizione della fotosintesi e di conseguenza sulla crescita e sulle proprietà biometriche delle microalghe. E’ stato visto come la temperatura sia un parametro ambientale fondamentale sulla crescita algale e anche sugli effetti tossici di Terbutilazina; la temperatura ideale per la crescita di S. marinoi è risultata essere 20°C. Crescendo a 15°C la microalga presenta un rallentamento nella crescita, una minore efficienza fotosintetica, variazione nei valori biometrici, mostrando al microscopio forme irregolari e di dimensioni inferiori rispetto alle microalghe cresciute alle temperature maggiori, ed infine incapacità di formare le tipiche congregazioni a catena. A 25° invece si sono rivelate difficoltà nell’acclimatazione: sembra che la microalga si debba abituare a questa alta temperatura ritardando così la divisione cellulare di qualche giorno rispetto agli esperimenti condotti a 15° e a 20°C. Gli effetti della terbutilazina sono stati maggiori per le alghe cresciute a 25°C che hanno mostrato un calo più evidente di efficienza fotosintetica effettiva e una diminuzione di carbonio e clorofilla all’aumentare delle concentrazioni di erbicida. Sono presenti in letteratura studi che attestano gli effetti tossici paragonabili dell’atrazina e del suo principale prodotto di degradazione, la deetilatrazina; nei nostri studi invece non sono stati evidenziati effetti tossici significativi del principale prodotto di degradazione della terbutilazina, la desetilterbutilazina. Si può ipotizzare quindi che la desetilterbutilazina perda la propria capacità di legarsi al sito di legame per il pastochinone (PQ) sulla proteina D1 all’interno del complesso del PSII, permettendo quindi il normale trasporto degli elettroni del PSII e la conseguente sintesi di NADPH e ATP e il ciclo di riduzione del carbonio. Il Metolachlor non evidenzia una tossicità severa come Terbutilazina nei confronti di S. marinoi, probabilmente a causa del suo diverso meccanismo d’azione. Infatti, a differenza degli enzimi triazinici, metolachlor agisce attraverso l’inibizione delle elongasi e del geranilgeranil pirofosfato ciclasi (GGPP). In letteratura sono riportati casi studio degli effetti inibitori di Metolachlor sulla sintesi degli acidi grassi e di conseguenza della divisione cellulare su specie fitoplanctoniche d’acqua dolce. Negli esperimenti da noi condotti sono stati evidenziati lievi effetti inibitori su S. marinoi che non sembrano aumentare all’aumentare della concentrazione dell’erbicida. E’ interessante notare come attraverso la valutazione della sola crescita non sia stato messo in evidenza alcun effetto mentre, tramite l’analisi dell’efficienza fotosintetica, si possa osservare che il metolachlor determina una inibizione della fotosintesi.
Resumo:
Negli ultimi anni è emerso chiaramente come la logistica rivesta un’importanza fondamentale per le aziende e costituisca un ottimo strumento per assicurarsi e mantenere un solido vantaggio competitivo. Inoltre, osservando l’ambiente attuale si evince come il sistema logistico sia caratterizzato da un progressivo aumento di complessità, sia in seguito alle maggiori esigenze dei mercati e sia come conseguenza della globalizzazione. In questo quadro evolutivo è mutato profondamente il ruolo ricoperto dalla logistica all’interno delle organizzazioni. Rispetto alla concezione tradizionale, che considerava la logistica come una funzione esclusivamente interna all’azienda, si è assistito al progressivo coinvolgimento dei fornitori e dei clienti ed è emersa la necessità di coordinare gli sforzi dell’intera supply chain, con l’obiettivo di migliorare il livello di servizio globalmente offerto e di ridurre i costi logistici totali. Tali considerazioni sono state il filo conduttore dell’analisi presentata di seguito, basata su uno studio svolto presso la DENSO Manufacturing Italia S.p.A., finalizzato all’analisi dei flussi in ingresso ed in particolar modo alla razionalizzazione degli imballi e dei trasporti, in un’ottica di integrazione con i fornitori. In particolare, la prima parte della trattazione introduce gli argomenti dal punto di vista teorico. Infatti, nel primo capitolo verrà illustrato il tema della logistica integrata e della sua evoluzione nel tempo, in relazione all’ambiente competitivo attuale ed alle nuove richieste dei mercati, approfondendo il tema della logistica in ingresso e del trasporto merci. Quindi, nel secondo capitolo verrà trattato il tema degli imballi, analizzandone le ripercussioni sull’intera catena logistica ed offrendo una panoramica dei metodi che permettono l’integrazione tra gli imballaggi ed i sistemi di trasporto, movimentazione e stoccaggio. Invece, la seconda parte dello studio sarà dedicata alla presentazione dell’azienda in cui è stato realizzato il progetto di tesi. Nel terzo capitolo verranno introdotte sia la multinazionale giapponese DENSO Corporation che la sua consociata DENSO Manufacturing Italia S.p.A., specializzata nella produzione di componenti per il mercato automotive, presso cui si è svolto lo studio. Nel quarto capitolo verrà descritto il layout dell’impianto, per poi presentare la logistica in ingresso allo stabilimento, ponendo maggiore attenzione ai flussi provenienti dal nord Italia – ed in particolare dal Piemonte – su cui si incentra il lavoro di tesi. Quindi, nella terza ed ultima parte verrà presentata in dettaglio l’analisi condotta durante lo studio aziendale. In particolare, il quinto capitolo tratta dei flussi di materiale provenienti dall’area piemontese, con l’analisi degli imballi utilizzati dai fornitori, delle consegne e delle modalità di trasporto. Infine, nel sesto capitolo saranno proposte delle soluzioni migliorative relativamente a tutte le criticità emerse in fase di analisi, valutandone gli impatti sia in termini economici che in relazione all’efficienza del flusso logistico.