412 resultados para protocolli, trasporto, ipv6
Resumo:
Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.
Resumo:
Applicazione del metodo della "Progettazione dinastica" al caso Marpatech s.r.l., azienda inserita nell'ambito del packaging. Tale metodo viene applicato per la riorganizzazione della produzione, in particolare, in questo caso, della metodologia di lavoro all'interno dell'ufficio tecnico. Si è analizzata la varietà dei componenti che costituiscono le linee di trasporto facenti parte delle famiglie "trasporto sfuso" e "trasporto cartoni", per poi definire un capostipite della futura dinastia di prodotti e progettando componenti standard con logiche di modularità, range, fisso/variabile. Infine si sono applicati i risultati ottenuti ad una commessa realizzata nell'anno 2013 ed è stato fatto un confronto tra i due casi. L'obiettivo conseguito è stato ridurre la varietà dei prodotti, definendo il capostipite, e definendo i principali componenti standard, opzionali e speciali, e ridurre i costi e i tempi imputabili all'ufficio tecnico.
Resumo:
Studio di una macchina automatica per l'avvolgimento con film estensibile di pallet dedicati al trasporto. Sono stati analizzati la storia del pallet, il mercato delle macchine avvolgipallet e lo studio di un motoriduttore. Successivamente si sono progettati i caratteri salienti della macchina e si sono dimensionato due motoriduttori.
Resumo:
Mycelium Tectonics è un lavoro multidisciplinare che interseca l’architettura con la biologia e con la tecnologia. Il concetto di tettonica - qui definito come il territorio in cui si costruiscono le relazioni tra l’organizzazione formale e i processi di funzionamento endogeni - viene indagato partendo da un punto di vista materico, dai limiti fisici e meccanici della materia e dalle differenze che ne possono emergere attraverso il cambio di scala. Procedendo dunque dal basso, sono stati studiati fenomeni quali l’auto-organizzazione e le intelligenze collettive, costituite da elementi con comportamenti autonomi, in cui l’organizzazione globale non è pianificata a priori ma emerge dalle interrelazioni degli elementi stessi. Si è tentato di descrivere una tettonica in cui fosse proprio la differenziazione e la variazione, di cui il sistema è intrinsecamente capace, a produrre una propria forma di organizzazione tettonica ed estetica su cui la funzionalità potesse essere mappata in modi non convenzionali. La biologia fornisce in questo diversi stimoli circa il concetto di costruire in termini di articolazione spaziale e adattabilità: in natura ogni struttura viene generata mediante processi di crescita intrinsecamente coerenti, e le relazioni che la regolano rendono impossibile scindere le parti dal tutto; una logica profondamente differente dai processi produttivi - e costruttivi – odierni, che racchiude in questo il potenziale per superarne i limiti. L’esperienza di laboratorio ha permesso un’ indagine approfondita sulle capacità esplorative e di morfogenesi del micelio: un organismo pluricellulare molto semplice formato da numerosi filamenti (ife), capaci di ramificarsi e riconnettersi tra loro per formare una rete biologica di trasporto. Le strategie messe in atto durante la crescita, poi simulate digitalmente, si sono evidenziate durante tutto il percorso di ricerca pratica, fornendo non solo motivo di dibattito teorico, quanto stimoli e possibilità a livello operativo. Partendo dagli esperimenti in vitro, lo studio si è poi soffermato sulla possibilità di far crescere il micelio (della specie Pleurotus Ostreatus) su strutture fibrose di canapa. Queste sono state simulate ed indagate digitalmente, al fine di costruire prototipi fisici da far colonizzare attraverso una crescita controllata del micelio. I modelli, lasciati essiccare, mostrano caratteristiche e performance emergenti, coerentemente alle premesse architettoniche. Considerando i risultati - seppur parziali - dell’attività teorico-sperimentale condotta, diviene necessario considerare un significato più esteso del termine sostenibilità, oltre ad un esame più approfondito delle ripercussioni a scala ecologica conseguenti l’applicazione di soluzioni qui soltanto ipotizzate.
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
L’obiettivo del lavoro è stato quello di definire la filiera di smaltimento dei rifiuti di plastica di origine domestica. La modellazione della stessa ha preso come riferimento un insieme di informazioni rese disponibili dal CONAI, Consorzio Nazionale degli Imballaggi. Noti gli attori e le attività svolte al fine dell’avvio a recupero della frazione raccolta, è stato sviluppato un modello economico adeguato al fine di ripartire i costi delle attività in funzione della gestione del materiale. Tale modellazione non prende in esame le spese e gli introiti allocati al Consorzio, ma si focalizza sulle attività di raccolta, selezione e avvio a recupero. Ci si è poi concentrati sulla modellazione economica dell’avvio a recupero della frazione di plastica raccolta dal Comune di Bologna. Ripartendo la responsabilità di gestione tra il gestore del servizio (Hera), il Centro Comprensoriale (CC Akron Granarolo), i Centri di Selezione (CSS Argeco e Idealservice) e i riciclatori (tra quelli convenzionati al consorzio) si è definito il modello economico per il caso in esame. In particolare, si è adottato un approccio simulativo di allocazione del materiale selezionato in vista della modalità di vendita di alcuni prodotti tramite asta online. La quantificazione economica in sé risente di assunzioni definite per la determinazione di una componente di costo che possa essere il può possibile esaustiva delle operazioni svolte. Si è poi proceduto definendo una stima della quantità di diossido di carbonio prodotta in fase di combustione di carburante per la movimentazione dei flussi del caso di studio. I valori in esame sono stati desunti come prodotto tra la quantità di CO2 emessa per i chilometri percorsi a seconda della tipologia di mezzo adottata per la movimentazione dei flussi. I dati relativi alle quantità di anidrite carbonica prodotte sono stime in grammi di CO2 al chilometro realizzate da Arpa e distinte in funzione delle soluzioni tecnologiche da implementare secondo le disposizioni redatte dalla Comunità Europea. La nota metodologica adottata prevede di analizzare i risultati ottenuti in funzione della distanza percorsa, dei costi di trasporto e della quantità di CO2 generata per le attività.
Resumo:
La tesi tratta dei protocolli di autenticazione a chiave privata, sia unilaterale che reciproca, e a chiave pubblica ed esamina brevemente il protocollo di Schnorr.
Resumo:
Realizzazione di un supporto CoAP per il framework Kura con le seguenti caratteristiche: 1. Ottima scalabilità, ad organizzazione gerarchica, con aggiunta e rimozione dinamica di nodi e gestione automatica delle disconnessioni. 2. Integrazione efficiente di tecnologie CoAP ed MQTT progettate appositamente per l’IoT tramite lo sviluppo di un pattern di comunicazione per la gestione degli scambi delle informazioni. 3. Un limitato uso di risorse con modifiche su entrambe le implementazioni standard dei protocolli usati in modo tale da adattarle agli obiettivi prefissati. Il tutto a un costo bassissimo, dato che si basa su tecnologie open e grazie alla possibilità di utilizzo su Raspberry Pi.
Resumo:
In questa tesi viene presentato un bioreattore in grado di mantenere nel tempo condizioni biologiche tali che consentano di massimizzare i cicli di evoluzione molecolare di vettori di clonazione fagici: litico (T7) o lisogeno (M13). Verranno quindi introdtti concetti legati alla Teoria della Quasispecie e alla relazione tra errori di autoreplicazione e pressioni selettive naturali o artificiali su popolazioni di virus: il modello naturale del sistema evolutivo. Tuttavia, mantenere delle popolazioni di virus significa formire loro un substrato dove replicare. Per fare ciò, altri gruppi di ricerca hanno giá sviluppato complessi e costosi prototipi di macchinari per la crescita continua di popolazioni batteriche: i compartimenti dei sistemi evolutivi. Il bioreattore, oggetto di questo lavoro, fa parte del progetto europeo Evoprog: general purpose programmable machine evolution on a chip (Jaramillo’s Lab, University of Warwick) che, utilizzando tecnologie fagiche e regolazioni sintetiche esistenti, sará in grado di produrre funzionalità biocomputazionali di due ordini di grandezza più veloci rispetto alle tecniche convenzionali, riducendo allo stesso tempo i costi complessivi. Il primo prototipo consiste in uno o piú fermentatori, dove viene fatta crescere la cultura batterica in condizioni ottimizzate di coltivazione continua, e in un cellstat, un volume separato, dove avviene solo la replicazione dei virus. Entrambi i volumi sono di pochi millilitri e appropriatamente interconnessi per consentire una sorta di screening continuo delle biomolecole prodotte all’uscita. Nella parte finale verranno presentati i risultati degli esperimenti preliminari, a dimostrazione dell’affidabilità del prototipo costruito e dei protocolli seguiti per la sterilizzazione e l’assemblaggio del bioreattore. Gli esperimenti effettuati dimostrano il successo di due coltivazioni virali continue e una ricombinazione in vivo di batteriofagi litici o lisogeni ingegnerizzati. La tesi si conclude valutando i futuri sviluppi e i limiti del sistema, tenendo in considerazione, in particolare, alcune applicazioni rivolte agli studi di una terapia batteriofagica.
Resumo:
Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, isolarono per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un eccellente trasporto termico ed elettrico ed un’ elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che la Comunità Europea ha approvato due dei più grandi progetti di ricerca mai finanziati in Europa, tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Con Flagship Grafene l’Europa punta sul grafene, e lo fa in grande. L’obiettivo è dunque ambizioso. Il suddetto materiale è infatti non solo il più sottile che conosciamo, con uno spessore di un atomo di carbonio, ma è anche 100 volte più resistente dell’acciaio e al tempo stesso flessibile. E’ Inoltre trasparente e conduce l’energia elettrica e termica molto meglio del rame. Ergo, il grafene offre le stesse performance dei materiali usati attualmente nei nostri dispositivi, con l’aggiunta però di ulteriori funzionalità.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.