582 resultados para retorinen metodi
Resumo:
L'elaborato affronta l'applicazione della tecnologia di downsizing nei motori ad accensione comandata: i dispositivi che ne permettono l'implementazione nei veicoli leggeri (EGR, sovralimentazione) e i problemi intrinsechi di questa tecnologia (possibile comparsa di fenomeni anomali di combutione come preaccensioni, autoaccensioni, DDT, detonazione e superknock). Sono presi in esame diversi metodi di soluzione dei problemi sopraelencati, uno fra tutti l'aggiunta di un'iniezione d'acqua per diminuire le temperature dei gas in camera di combustione e mitigare così le possibili detonazioni. Infine l'elaborato analizza alcuni esempi di applicazione della tecnologia di downsizing al fine di ridurre le emissioni di CO2 allo scarico entro i limiti imposti dalla Comunità Europea. Il progetto Ultraboost di Jaguar Land Rover, la filosofia di rightsizing (giusta cilindrata in base alla classe a cui il veicolo appartiene) di Audi, lo SkyActiv-G di Mazda sono solo alcuni dei motori nati sotto la filosofia del downsizing. Nei motori progettati al fine di ridurre le emissioni allo scarico ma allo stesso tempo mantenere buone prestazioni del motore, si trovano anche il concetto di DCEE (Double Compression Expansion Engine) di Joahnnson e il motore a pistoni opposti a due tempi di Achates Power.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resistenze al moto in ambito ferroviario: Stato dell'arte, confronto tra rotabili passeggeri e merci
Resumo:
L'obiettivo della seguente trattazione è quello di illustrare i principali metodi di determinazione delle resistenze al moto per materiali rotabili. Verranno quindi proposti e discussi una serie di diversi approcci al problema corredati da esempi e commenti finalizzati a chiarire, oltre al funzionamento degli strumenti, anche l'ambito di validità di questi, evidenziando eventuali differenze nei risultati e interpretandole razionalmente. Nella prima parte verranno introdotti ed analizzati i singoli contributi che, durante l'avanzamento di un generico veicolo ferroviario, generano resistenze al moto: partendo dalle resistenze di tipo meccanico dovute alle caratteristiche del rotabile e alle sue proprietà meccaniche fino a quelle di tipo aerodinamico che, come si vedrà in seguito, dipendono fortemente non solo dalla tipologia di veicolo ma anche dalle condizioni ambientali di esercizio, ma soprattutto dalla velocità di percorrenza. Si passa quindi ad illustrare i principali metodi di determinazione empirici adottati dalle compagnie ferroviarie e dai produttori di materiale rotabile in vari paesi. Nell'ultima parte di questa trattazione si propone una serie di considerazioni finalizzate ad analizzare eventuali soluzioni pratiche per migliorare l'efficienza e la performance dei materiali rotabili sulla base delle informazioni ottenute dallo studio delle varie esperienze analizzate nei capitoli.
Resumo:
Nella prima parte dell'elaborato vengono introdotti dei concetti basilari del sistema ferroviario necessari al proseguo della trattazione: i sistemi di circolazione utilizzati in Italia, le sezioni di blocco, i sistemi di sicurezza e di controllo della marcia, il sistema ERTMS a livello europeo. Nella seconda parte, dopo aver introdotto il concetto di capacità, vengono analizzati nel dettaglio e confrontati, in termini di capacità teorica, i sistemi basati sul blocco fisso e sul blocco mobile. Vengono quindi proposti i metodi utilizzati per il calcolo della capacità reale, prestando particolare attenzione al metodo dei coefficienti di ritardo specifico D e di stabilità X. Da quest' ultimo e con l'introduzione dei livelli di servizio, viene analizzato il rapporto che lega la capacità con la qualità della circolazione. Infine viene proposto un confronto tra le linee convenzionali e le linee AV/AC in Italia, evidenziando il rapporto tra le caratteristiche di velocità e di capacità.
Resumo:
Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.
Resumo:
Le attività riguardanti la mia tesi sono state svolte presso Hera S.p.A.. Hera ha iniziato nel 2013 un progetto sperimentale di implementazione di tecnologie cosiddette smart grid su una porzione di rete gestita. Il progetto di Hera si focalizza su diversi aspetti riguardanti sia l’automazione della rete MT, ai fini della riduzione del tempo necessario per individuare il guasto in linea, sia su aspetti riguardanti la regolazione della tensione. In particolare la mia attività di tesi si è incentrata sugli aspetti riguardanti la regolazione della tensione, partendo da una panoramica di quelli che sono ad oggi i metodi più diffusi di regolazione della tensione agendo essenzialmente sul regolatore sotto carico del trasformatore AT/MT presente in cabina primaria e descrivendo quello che è invece il metodo analizzato nel dimostrativo di Hera. In particolare mi sono soffermato sulla regolazione di tensione realizzata con il supporto dei generatori distribuiti connessi alla rete MT di Hera i quali possono, nei limiti delle loro capability, intervenire all’occorrenza assorbendo od erogando potenza reattiva. Il supporto dei generatori distribuiti può essere richiesto qualora la regolazione realizzata con la variazione del commutatore sottocarico del trasformatore in cabina primaria non sia sufficiente per ottenere il risultato desiderato. Appare sin d’ora evidente che questo tipo di regolazione presuppone l’esistenza di una infrastruttura di comunicazione tra il centro operativo del distributore e il campo, inteso come i nodi su cui sono connessi i generatori. Nell’ambito del dimostrativo Hera ha quindi progettato e sta ora realizzando l’infrastruttura di comunicazione che permette la comunicazione del centro di telecontrollo con i generatori. Questa infrastruttura ha caratteristiche particolarmente performanti non tanto per conseguire gli scopi della regolazione, che comunque non necessitano di tempi di latenza eccessivamente stringenti, quanto piuttosto per implementare un’automazione di rete veloce che permette di evitare la disalimentazione degli utenti a monte di guasto attraverso una selezione rapida e intelligente del ramo guasto.
Resumo:
ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto
Resumo:
In questa tesi viene presentato un nuovo metaeuristico per la risoluzione del Traveling Salesman Problem (TSP) simmetrico. Tale metodo, detto algoritmo bionomico, è una variante dell'algoritmo genetico che usa un metodo innovativo di generazione del parents set. Nella tesi vengono proposti diversi metodi di crossover specifici per il TSP ma che possono essere facilmente estesi per altri problemi di ottimizzazione combinatoria. Tali metodi sono stati sperimentati su un insieme di problemi test, i risultati computazionali mostrano l'efficienza dei metodi proposti. In particolare uno dei metodi domina gli altri sia per la miglior qualità delle soluzioni prodotte che per il minor tempo di calcolo impiegato.
Resumo:
Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.
Resumo:
Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.
Resumo:
La ricerca condotta per questa tesi è incentrata sulla cosmesi naturale e rappresenta il risultato di un tirocinio avanzato svolto in collaborazione con l'azienda Remedia di Quarto di Sarsina (FC), i cui settori principali sono l'erboristeria e la cosmesi naturale. Lo scopo del progetto consiste nella preparazione di un interprete ad una conferenza sul tema della cosmesi naturale per le lingue italiano e tedesco. L'enfasi viene posta sul metodo da adottare per acquisire sia la terminologia sia le nozioni basilari del dominio in un arco di tempo limitato. Si tratta quindi di una ricerca linguistica incentrata sui termini e sulla fraseologia che ricorrono con maggiore frequenza nel corpus in italiano sul tema trattato. La tesi è suddivisa in quattro capitoli. Il primo capitolo tratta la pelle, la cosmesi tradizionale, gli ingredienti più controversi, i principali marchi di certificazione biologica per la cosmesi, infine descrive l'azienda e i metodi utilizzati per la trasformazione delle piante officinali. Il secondo capitolo introduce la metodologia adottata e i problemi riscontrati nel corso del progetto. Tratta inoltre la linguistica dei corpora connessa agli studi di terminologia, il ruolo svolto dall'esperto, la creazione di corpora specialistici e paragonabili nelle lingue di lavoro, nonchè l'analisi dei termini più ricorrenti e dei loro equivalenti interlinguistici nel loro contesto naturale. Infine introduco il prototipo di tesauro utilizzato per registrare 300 dei termini che ricorrono più frequentemente nel corpus in italiano. Il terzo capitolo presenta una disamina degli aspetti generali della terminologia, delle sue origini e delle principali scuole, in particolare la scuola di Vienna e il contributo di Eugen Wüster. Affronta inoltre le caratteristiche della comunicazione specialistica, ponendo l'accento su tecnicismi collaterali, equivalenza e variazione. Il quarto capitolo tratta nel dettaglio i risultati del progetto corredati da alcune osservazioni a livello cognitivo e terminologico.
Resumo:
In quest’elaborato verranno trattate le caratteristiche fisiche, chimiche e morfologiche dei pianeti che compongono il Sistema Solare, escludendo però la Terra, in quanto lo studio del globo terrestre, seppur interessante, è argomento di geologia; per cui si è deciso di non descriverne le proprietà, anche se verrà usata la sua massa e il suo raggio come unità di riferimento per tutti i pianeti. Non verranno trattate questioni dinamiche come il problema di Keplero a piu` corpi e le risonanze orbitali, in quanto quest’argomento è già presente nell’elenco titoli degli elaborati delle laure triennali di Astronomia, per cui si esulerebbe dallo scopo di quest’elaborato; ci si limiterà dunque, soltanto ad accennare alcune questioni solo dove necessario. L’elaborato è suddiviso in varie sezioni: nella prima si farà un breve inventario di ciò che comprende il Sistema Solare e alle fasi della sua formazione che lo hanno portato alla sua attuale configurazione, nella seconda si analizzeranno le proprietà che definiscono i pianeti da un punto di vista fisico e le condizioni per cui assumono determinate caratteristiche, quali la forma, la temperatura di equilibrio, la presenza o meno di atmosfere e magnetosfere. Successivamente si passerà ad analizzare sommariamente, sotto le condizioni descritte nella sezione precedente, le proprietà caratteristiche di ciascun pianeta mettendo in evidenza analogie e differenze fra ciascun corpo. Dopo una breve sezione sui corpi minori e sulle decisioni che hanno portato a non considerare alcuni di questi corpi piu` come pianeti, si passerà a descrivere alcuni metodi di ricerca, grazie ai quali sono stati scoperti numerosi pianeti extrasolari. In appendice si riporteranno il significato di tutti i simboli e i valori delle costanti utilizzati spesso durante la stesura dell’elaborato.
Resumo:
In questo elaborato vengono descritti i principali metodi per il calcolo delle distanze in astrofisica. Viene trattato il fenomeno della parallasse, il funzionamento e alcuni tipi di stelle variabili oltre alle supernove di tipo thermonuclear. Infine sono brevemente discussi alcuni indicatori secondari: le relazioni di Faber-Jackson, Tully-Fisher e la legge di Hubble.
Resumo:
Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.
Resumo:
Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.