546 resultados para reattore digestione anaerobica girante agitatore viscosità reometro moto vettore velocità


Relevância:

0.00% 0.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

La presente tesi si propone di determinare quale sia la situazione del mercato italiano e spagnolo sui pneumatici fuori uso (PFU) e quale sia il migliore metodo di costruzione degli elementi elastici da PFU. I risultati dell'analisi di mercato mostrano che l'introduzione del principio di responsabilità del produttore, introdotto in Italia solo nel 2011, sta portando ottimi risultati, e il problema di raccolta degli PFU è in via di risoluzione. Gli studi dinamici documentano che gli under rail paid (URP) costruiti da PFU rispettano tutte le necessità tecniche per l'utilizzo nelle linee ferroviarie sia convenzionali che ad alta velocità. Invece il Life Cycle Assessment (LCA) dimostra che il processo di costruzione degli URP da PFU decostruiti impatta meno rispetto a quello dei PFU triturati. I risultati del Life Cycle Cost (LCC) fanno propendere per un utilizzo degli URP nelle vie ferroviarie in quanto si ha una diminuzione dei costi di manutenzione.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

La dialisi è una terapia essenziale alla sopravvivenza delle persone colpite da insufficienza renale. Senza questo trattamento periodico l’aspettativa di vita si riduce a pochi giorni. Il fine di questo trattamento è il ripristino dell’equilibrio idro-elettrolitico e acido-base del paziente e la rimozione del fluido in eccesso che l’organismo non è in grado di espellere autonomamente. La parte di liquido che passa attraverso il filtro dal lato sangue, alla parte di bagno dialisi prende il nome di ultrafiltrato. Ciò comporta che nelle macchine per emodialisi ci sia un sistema di controllo dedicato all’ultrafiltrazione. La durata della seduta è variabile, è finalizzata a riportare il paziente al peso ottimale in un tempo limitato. Il seguente elaborato è stato svolto presso il laboratorio della start-up IBD Italian Biomedical Devices, uno dei progetti in via di sviluppo è la realizzazione di una macchina per emodialisi a basso costo. Obiettivo della tesi è stato quello di confrontare due misuratori di portata e valutarne l’adeguatezza per la gestione del sistema di ultrafiltrazione. È stato esplorato tutto il range di portate a cui potrebbero essere sottoposti durante l’utilizzo del macchinario. I sensori oggetto di studio sono l’Oval Gears Flowmeters ed il flussimetro Series 800, entrambi adatti all’impiego in ambito biomedicale. Appartengono a due diverse classi: il primo è un contatore volumetrico, registra il numero di volumi base lo che attraversano. Il secondo è un misuratore a turbina, genera impulsi verso l’esterno in numero proporzionale alla velocità del fluido. Lo studio necessita anche di una parte di acquisizione dei segnali provenienti dai sensori, è stata implementata interamente sulla piattaforma Arduino. I dati acquisiti sono stati elaborati ed analizzati al fine di avere un confronto tra i misuratori e con il gold-standard. Per poter confrontare le prestazioni è stato realizzato e seguito un protocollo sperimentale.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Nel presente lavoro è progettato e sviluppato un sistema dual-fuel diesel/benzina per combustioni di tipo RCCI, e sono esposti i risultati sperimentali in termini di prestazioni ed emissioni. E' inoltre descritto e implementato un algoritmo di stima dell'MFB50 a partire dalla sola misura della velocità motore.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Nella presente Tesi si procede alla preparazione e caratterizzazione di nuovi poliesteri alifatici a base di PLLA che offrano garanzie di completa biodegradabilità e presentino caratteristiche chimico/fisiche adeguate ad applicazioni nell’ambito dell’imballaggio alimentare. La modifica chimica del PLLA è stata realizzata per introduzione in catena di segmenti opportunamente sintetizzati che fungono da iniziatori nell’apertura dell’anello di lattide nella ROP. I copolimeri triblocco, poli(lattico)-block-poli(propilene/neopentil glicole succinato) PLLAnP(PS80NS20)m, si differenziano per il diverso rapporto in peso tra i due diversi tipi di blocco, quello hard di PLLA e quello soft di P(PS80NS20). I risultati ottenuti sono di rilevante interesse applicativo: i copolimeri presentano migliorate proprietà meccaniche rispetto al PLLA, una maggiore velocità di biodegradazione, senza che abbia avuto luogo un peggioramento della stabilità termica e delle proprietà barriera, addirittura migliore al gas test O2.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Nell’ambito del nuoto, la scelta della strumentazione è legata all’ambiente, il metodo più utilizzato per analizzare il movimento degli atleti, ancora oggi, è quello dell’analisi video, che utilizza videocamere subacquee. L’analisi video in acqua ha diversi limiti: presenta errori legati alla turbolenza e alla rifrazione aria/acqua, necessità di elevati tempi sia per la calibrazione sia per l’elaborazione dei dati, non consente un feedback in tempo reale e quindi non fornisce informazioni immediate all’allenatore e ha costi elevati. Da qui la necessità di investigare altri metodi. Il metodo alternativo proposto, per la prima volta da Oghi et al. nel 2000 utilizza i sensori inerziali (IMU- Inertial Measurements Units) che possono essere indossati dall’atleta, previa impermeabilizzazione. Non sono invasivi e non limitano eccessivamente il movimento, non richiedono un setup di calibrazione complesso e hanno costi ridotti. Per questo elaborato sono stati stimati i parametri che vengono tipicamente utilizzati dagli allenatori per valutare le performance degli atleti durante l’allenamento: parametri temporali legati alle fasi della bracciata e la velocità istantanea. Sono state effettuate prove sul campo, presso il Laboratorio di Biomeccanica della Scuola di Farmacia, Biotecnologie e Scienze Motorie, situato nella palestra Record del CUSB di Bologna.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

L'elaborato descrive il lavoro svolto in cinque mesi presso il Centro Protesi INAIL di Budrio (BO), che ha portato allo sviluppo di un banco prova per testare articolazioni elettromeccaniche. I dispositivi target, in particolare, sono stati due gomiti mioelettrici: il primo di produzione interna INAIL e il secondo prodotto da Selex ES in collaborazione con il Centro Protesi stesso. Per il controllo del movimento e l'acquisizione dei segnali elettrici si è scelto il PAC CompactRIO (National Instruments), mentre per le acquisizioni cinematiche di angolo e velocità angolare si è sfruttata la stereofotogrammetria.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Nella tesi si è studiata una macchina automatica per l'industria farmaceutica: l'Adapta 100, un'opercolatrice (macchina riempi-capsule) prodotta da IMA SpA. Gli scopi della tesi erano chiarire il flusso di potenza dei vari assi e valutare un possibile risparmio energetico. La macchina infatti ha diversi motori: uno, collegato all'asse master, che comanda i gruppi non rimovibili e gli altri che comandano i gruppi di dosaggio. Tali motori in generale, per qualche tratto del ciclo della macchina, potranno lavorare come generatori, anche considerando il solo funzionamento a regime: si avrà cioè, in qualche istante, che le forze esterne tendono ad accelerare il motore, che così assorbe energia meccanica e produce energia elettrica. Attualmente tale energia viene dissipata in apposite resistenze collegate ai motori; ci si è chiesti se non si potesse invece immagazzinare l'energia prodotta, ad esempio per usarla in caso di black-out, per frenare delicatamente la macchina senza che gli assi perdano la fase. Un'alternativa è quella di ridistribuire la potenza generata istante per istante collegando i motori a un comune bus DC. Prima però è necessario conoscere gli andamenti di coppia e velocità di ciascun motore: per questo ci si è ricondotti al modello della macchina a 1 gdl, riducendo tutte le coppie e le inerzie all'asse motore. Si sono studiati i due assi più importanti in termini di coppie e potenze di picco: questi sono l'asse master e l'asse di dosaggio della polvere farmaceutica. Il modello è stato concretamente implementato con degli script MATLAB. Il modello risulta flessibile, per considerare le varie modalità di funzionamento della macchina, e considera i principali termini di coppia, inclusi attriti (inseriti sotto forma di rendimenti) e forze esterne di lavorazione. Tra queste è particolarmente importante la forza di compattazione della polvere, che è stata modellata con la formula di Kawakita, nota dalla letteratura.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.