908 resultados para il business del riciclo
Resumo:
Lo scopo del lavoro è quello di verificare tramite software CAD l’influenza dei principali parametri chirurgici e anatomici sul Range Of Motion (ROM). Sono stati costruiti 5 modelli, uno di articolazione sana(Senza Protesi), uno di protesi Convenzionale e tre di protesi Conservative o a Conservazione (Totale, Media e Bassa Conservazione). Per tutti i modelli sono state simulate le rotazioni di base e i cosiddetti movimenti critici, ovvero quei movimenti a rischio di lussazione. Le prove sono state eseguite per teste da 28-,32-,36-,40mm di diametro, e con la coppa orientata di 45° in abduzione e 15° gradi in antiversione prima e successivamente di 45° e 0°. Inoltre, per verificare l’influenza dell’offset sul ROM, sono stati costruiti e simulati i movimenti per altri 5 modelli che non conservassero il vincolo del mantenere l’offset anatomico. Variando il diametro della testa si registrano differenze apprezzabili in termini di ROM solo per i movimenti di Estensione e Abduzione per il modello di Protesi Convenzionale e di Abduzione per il modello a Bassa Conservazione. Variando il livello di resezione del collo si è visto come per i modelli di protesi a Media Conservazione, Bassa Conservazione e Convenzionale si misurano angoli superiori a quello del riferimento tratto dalla Letteratura. Diversamente per il modello di Protesi a Totale Conservazione i valori ottenuti per alcuni movimenti sono inferiori, poiché limitati da un contatto di tipo c-b. Le simulazioni dei movimenti critici confermano la tendenza di un ROM accettabile per i modelli di protesi a Bassa Conservazione e di protesi Convenzionale, i quali forniscono escursioni angolari sempre superiori a quelle prese come riferimento dalla Letteratura. Invece, le protesi a Totale e Media Conservazione forniscono valori inferiori al riferimento per i movimenti di Pivot e Roll, essendo limitati dall’antiversione della coppa (movimenti di ExtraRotazione e contatto c-b). Variando la posizione della coppa a 45°/0° i due movimenti Critici Pivot e Roll migliorano per i modelli a Totale e Media Conservazione, tornando in linea con il riferimento. Riguardo l’offset si nota come più si avvicina a quello anatomico che misura 46,2mm (da 37 a 44mm), più si riscontra un aumento in termini di ROM.
Resumo:
La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.
Resumo:
Nel momento in cui si pone il problema del recupero di un qualsivoglia edificio, si dichiarano il riconoscimento e l’accettazione di valori ad esso attribuiti oltre che dalle memorie individuali, anche da istanze culturali attente alle categorie della monumentalità (valore artistico/storico) o della semplice oggettualità del documento materiale (valore storico/documentale) ed infine da quelle economiche, orientate allo sfruttamento del valore utilitaristico del bene. Il progetto di recupero dell'ex fornace Verni - Vannoni si inserisce in una più vasta proposta di riassetto dell’area circostante, con l’obiettivo di recuperare l’identità che il complesso produttivo rivestiva all’interno del contesto urbano bellariese. La rifunzionalizzazione integrata della fabbrica si concretizza a conclusione della ricerca condotta sulle reali esigenze della città e sull’oggetto architettonico: il tentativo è quello di ricercare il “codice genetico” dell’edificio, analizzando la sua natura a partire dalla sua storia, per poi giungere fino alla comprensione delle sue qualità, sia tipologico-compositive, sia materiche che costruttive.
Resumo:
Riconoscere un gesto, tracciarlo ed identificarlo è una operazione complessa ed articolata. Negli ultimi anni, con l’avvento massivo di interfacce interattive sempre più sofisticate, si sono ampliati gli approcci nell’interazione tra uomo e macchina. L’obiettivo comune, è quello di avere una comunicazione “trasparente” tra l’utente e il computer, il quale, deve interpretare gesti umani tramite algoritmi matematici. Il riconoscimento di gesti è un modo per iniziare a comprendere il linguaggio del corpo umano da parte della macchina. Questa disciplina, studia nuovi modi di interazione tra questi due elementi e si compone di due macro obiettivi : (a) tracciare i movimenti di un particolare arto; (b) riconoscere tale tracciato come un gesto identificativo. Ognuno di questi due punti, racchiude in sé moltissimi ambiti di ricerca perché moltissimi sono gli approcci proposti negli anni. Non si tratta di semplice cattura dell’immagine, è necessario creare un supporto, a volte molto articolato, nel quale i dati grezzi provenienti dalla fotocamera, necessitano di filtraggi avanzati e trattamenti algoritmici, in modo tale da trasformare informazioni grezze, in dati utilizzabili ed affidabili. La tecnologia riguardo la gesture recognition è rilevante come l’introduzione delle interfacce tattili sui telefoni intelligenti. L’industria oggi ha iniziato a produrre dispositivi in grado di offrire una nuova esperienza, la più naturale possibile, agli utenti. Dal videogioco, all’esperienza televisiva gestita con dei piccoli gesti, all’ambito biomedicale, si sta introducendo una nuova generazione di dispositivi i cui impieghi sono innumerevoli e, per ogni ambito applicativo, è necessario studiare al meglio le peculiarità, in modo tale da produrre un qualcosa di nuovo ed efficace. Questo lavoro di tesi ha l’obiettivo di apportare un contributo a questa disciplina. Ad oggi, moltissime applicazioni e dispositivi associati, si pongono l’obiettivo di catturare movimenti ampi: il gesto viene eseguito con la maggior parte del corpo e occupa una posizione spaziale rilevante. Questa tesi vuole proporre invece un approccio, nel quale i movimenti da seguire e riconoscere sono fatti “nel piccolo”. Si avrà a che fare con gesti classificati fini, dove i movimenti delle mani sono compiuti davanti al corpo, nella zona del torace, ad esempio. Gli ambiti applicativi sono molti, in questo lavoro si è scelto ed adottato l’ambito artigianale.
Resumo:
Si presenta IntML, un linguaggio funzionale di recente introduzione che rende possibile la comunicazione bidirezionale; si descrive il funzionamento del suo interprete, a cui abbiamo aggiunto nuove funzionalita' che semplificano le operazioni di debugging e testing degli algoritmi.
Resumo:
La tesi affronta un tema di importanza crescente nell’organizzazione economico-produttiva nel quale assume forte rilevo pure la dimensione giuslavoristica. Nei fenomeni di integrazione delle attività d’impresa, infatti, si verifica in modo sempre più ampio una utilizzazione «indiretta» di forza lavoro, per cui diventa cruciale la questione del trattamento da applicare ai rapporti di lavoro «decentrati» Con un approccio che tiene conto dei risultati delle scienze organizzative, si analizzano anzitutto le modalità tipiche delle esternalizzazioni succedutesi nell’evoluzione economico-organizzativa negli ultimi decenni. Vi è una modalità “primaria” o “perfetta”, nella quale è dedotto ad oggetto un opus, giusta lo schema dell’art. 1655 cod. civ., per cui la dinamica del rapporto obbligatorio è integralmente governata dal contratto; vi è altresì una modalità “secondaria” o “relazionale”, che si manifesta nella forma di organizzazioni integrate allargate alla partecipazione di più imprese. In queste, la lunga durata del vincolo obbligatorio impedisce che il contratto sia ex se capace di prevedere, già nel momento genetico, ogni evenienza che investirà lo svolgimento concreto del rapporto. Per questo le esternalizzazioni “relazionali” sono le più interessanti per il diritto del lavoro: i soggetti economici (decentrante e decentrato) articolano relazioni strutturate e di lungo periodo, in cui si determina una stabile interconnessione tra le varie componenti organizzative, nonché un prolungato utilizzo, ad opera del committente, delle prestazioni rese dai dipendenti del fornitore. Dall’indefinitezza circa l’oggetto delle obbligazioni incombenti a carico del debitore dell’opus o servizio – conseguente alla lunga durata della relazione col committente – si delineano però due diversi scenari del rapporto negoziale: esso può essere retto da solidarietà, partnership collaborativa e condivisione di obiettivi comuni (contractual integration “orizzontale”); oppure può essere informato a dinamiche di potere e di condizionamento verso le imprese decentrate ed i loro prestatori di opere impegnati nell’esecuzione del segmento di attività esternalizzato (contractual integration “gerarchica” o “verticale”).
Resumo:
Lo svolgimento della tesi segue la falsariga del discorso tenuto da Pier Luigi Nervi a Torino nel maggio 1961 al momento dell’inaugurazione del Palazzo del Lavoro. In quell’occasione egli illustra la concezione strutturale del suo edificio, realizzato attraverso l’accostamento di 16 elementi autoportanti e indipendenti (ciascuno costituito da un grande pilastro in cemento armato a sezione variabile - da cruciforme a circolare - e da una piastra metallica di copertura) che gli permettono di coprire uno spazio di 25.000 mq come richiesto dal bando di concorso. Nel descrivere le varie parti dell’edificio e le modalità con cui si sono susseguite le differenti lavorazioni (attraverso fasi di cantiere attentamente pianificate), Nervi omette un particolare interessante. Esaminando i disegni esecutivi dell’opera si rileva che all’interno di ogni pilastro è presente una cavità che permette di percorrerlo dalla base fino alla sommità. Ad una prima osservazione questi ‘cunicoli nascosti’ ricordano quelli ricavati nelle spesse murature delle cattedrali romaniche o gotiche, all’interno delle quali si trovano scale a chiocciola che collegano la cripta alla copertura o alle intercapedini del sottotetto. Come per le cattedrali del passato, anche nel Palazzo del Lavoro la creazione di uno spazio praticabile interno alla struttura risponde a più requisiti: funzionale (la manutenzione dei pluviali e delle coperture), costruttivo (la riduzione del peso proprio della struttura) ed economico (il risparmio del materiale). Nervi considera probabilmente questo dettaglio costruttivo un aspetto tecnico di minore importanza, appartenente cioè ad una dimensione ordinaria del proprio lavoro. Eppure, lo spazio ricavato all’interno del pilastro non coinvolge aspetti esclusivamente tecnici, ma sembra piuttosto nascere da una chiara visione progettuale che insegue un’idea di architettura, di unità, di organicità, di ‘servizio’ e di etica del mestiere. Dall’osservazione dell’edificio e della documentazione di progetto se ne ricava infatti una differente considerazione: lo scavo del pilastro non costituisce un aspetto secondario e, viste le implicazioni di carattere spaziale che introduce, merita di essere compreso e approfondito alla luce dell’intera opera di Nervi.
Resumo:
Background: Kasashima et al hanno individuato nella popolazione giapponese un sottogruppo di aneurismi aortici addominali (AAA) infiammatori con le caratteristiche clinico patologiche della Malattia autoimmune Sistemica IgG4 Correlata. La distinzione tra i diversi gruppi di AAA è clinicamente importante sia per il follow up che per il trattamento di questa patologia. Obiettivo dello studio era la valutazione della componente flogistica, vascolare e stromale della parete aortica aneurismatica, la ricerca di aneurismi infiammatori ed in particolare di AAA- IgG4 correlati anche nella popolazione caucasica. Materiali e metodi: Sono stati esaminati i dati relativi a 21 pazienti trattati chirurgicamente per AAA presso l’Unità Operativa di Chirurgia Vascolare di Ferrara. Sono state eseguite analisi immunoistochimiche di prelievi intraoperatori di parete aortica aneurismatica. Risultati: I dati emersi hanno identificato 3 sottopopolazioni di pazienti con AAA: aneurismi di tipo aterosclerotico con negatività ai markers infiammatori (AAAa), aneurismi infiammatori con positività ai markers infiammatori e negatività per le IgG4 (AAAI) ed infine aneurismi infiammatori con positività alle IgG4 (AAAI-IgG4). Conclusioni: Questo studio ha confermato l’ipotesi che la malattia aneurismatica IgG4 correlata è presente anche nella popolazione caucasica. Con il proseguimento del nostro studio sarà interessante verificare la conferma di questi dati anche in altri pazienti al fine di ricercare la miglior strategia terapeutica e minimizzare il rischio di complicanze.
Resumo:
Gli strumenti chirurgici sono importanti “devices” utilizzati come supporto indi-spensabile nella cura di pazienti negli ospedali. Essi sono caratterizzati da un intero ciclo di vita che inizia convenzionalmente nello “Store”, dove gli strumenti sterilizzati sono prelevati per essere utilizzati all’interno delle sale operatorie, e termina nuovamente nello “Store”, dove gli strumenti vengono immagazzinati per essere riutilizzati in un nuovo ciclo. Può accadere che le singole fasi del ciclo subiscano ritardi rispetto ai tempi previ-sti, non assicurando, pertanto, nelle sale operatorie, il corretto numero degli stru-menti secondo i tempi programmati. Il progetto che vado ad illustrare ha come obiettivo l’ottimizzazione del ciclo degli strumenti chirurgici all’interno di un nuovo ospedale, applicando i principi della Lean philosophy ed in particolare i metodi: “Poke Yoke, 5S e tracciabilità”. Per raggiungere tale scopo, il progetto è stato articolato come segue. In un primo momento si è osservato l’intero ciclo di vita degli strumenti nei due principali ospedali di Copenhagen (Hervel e Gentofte hospital). Ciò ha permesso di rilevare gli steps del ciclo, nonché di riscontrare sul campo i principali problemi relativi al ciclo stesso quali: bassa flessiblità, decentramento dei differenti reparti di cleaning e di store rispetto alle operation theatres ed un problema nel solleva-mento degli strumenti pesanti. Raccolte le dovute informazioni, si è passati alla fase sperimentale, in cui sono stati mappati due cicli di vita differenti, utilizzando tre strumenti di analisi: • Idef0 che consente di avere una visione gerarchica del ciclo; • Value stream Mapping che permette di evidenziare i principali sprechi del ciclo; • Simulator Tecnomatix che favorisce un punto di vista dinamico dell’analisi. Il primo ciclo mappato è stato creato con il solo scopo di mettere in risalto gli steps del ciclo e alcuni problemi rincontrati all’interno degli ospedali visitati. Il secondo ciclo, invece, è stato creato in ottica Lean al fine di risolvere alcuni tra i principali problemi riscontrati nei due ospedali e ottimizzare il primo ciclo. Si ricordi, infatti, che nel secondo ciclo le principali innovazioni introdotte sono state: l’utilizzo del Barcode e Rfid Tag per identificare e tracciare la posizione degli items, l’uso di un “Automatic and Retrievial Store” per minimizzare i tempi di inserimento e prelievo degli items e infine l’utilizzo di tre tipologie di carrello, per consentire un flessibile servizio di cura. Inoltre sono state proposte delle solu-zioni “Poke-Yoke” per risolvere alcuni problemi manuali degli ospedali. Per evidenziare il vantaggio del secondo ciclo di strumenti, è stato preso in consi-derazione il parametro “Lead time”e le due simulazioni, precedentemente create, sono state confrontate. Tale confronto ha evidenziato una radicale riduzione dei tempi (nonché dei costi associati) della nuova soluzione rispetto alla prima. Alla presente segue la trattazione in lingua inglese degli argomenti oggetto di ri-cerca. Buona lettura.
Resumo:
Lo studio condotto ha lo scopo di aumentare la vita in esercizio di motori idraulici a pistoni radiali a colonna di fluido, studiandone e migliorandone il comportamento tribologico. Questa tipologia di motori è adatta per generare alte coppie a basse velocità e si impiega in sistemi di movimentazione lenta per carichi pesanti. Il contatto in condizioni di strisciamento fra cilindri telescopici ed albero eccentrico rotante, può portare all’usura dei componenti coinvolti e quindi al trafilamento dell’olio che circola nel motore, causando cali di efficienza. Lo studio ha previsto un’indagine del tipo Failure Analysis su componenti del motore sottoposti a prove a banco. Successivamente, è stato condotto uno studio tribologico, al fine di valutare il comportamento del sistema e definire possibili modifiche ai componenti per il miglioramento del motore. Dalla Failure Analysis, è emerso che il meccanismo di usura prevalente risulta essere l’abrasione a due corpi. Le prove tribologiche di laboratorio, condotte in condizioni che hanno permesso di riprodurre i meccanismi di usura dominanti nelle prove a banco, hanno dato luogo a transizioni sia nell’attrito che nell’usura, il cui verificarsi dipende da: carico applicato, distanza di strisciamento, durezza dei materiali a contatto.
Resumo:
The present study investigates the principles that effect the relationship between voice and movement in performance. The topic stresses a contemporary tendency, which emerges from the work of numerous artits and looks into a research field that has not yet been well explored. The research arises from what I observed and experienced during my performance practical work and what I deepened after theorical studies: expression through movement and voice reflects constant principles. The first two chapters of the former study analyze the compared lines of the inquiry, from a theoretical point of view (interior and exterior voice-movement spatial patterns, and temporal patterns) and a practical point of view referring to body, action and relation. The third one is a survey on 'vocal gesture' as devised by Francesca della Monica, a topic that finds here the first academic investigation, built after nine years sudies with the artist on the oral sources of her teaching. The research is based on practical and theorical sources (especially philosophical studies of Giovanni Piana, Carlo Serra, Merleau-Ponty; performing studies of Grotowski, Laban, Dalcroze, Tomatis; ancient greek philosophy and literature; bodywork tecqniques as Kineseology, Body-mind centering, Alexander, Feldenkrais). The purpose of the study is to theorize, sistematyze and expose clear lines of compared investigation awakening the performer's interest on a central issue of his work and drawing the researcher's attention to make further focusing on the matter. Abstract (Italian) La ricerca va incontro a una tendenza che la contemporaneità pone in risalto con l'opera di numerosi artisti, investigando un campo ancora poco visitato a livello critico. Essa teorizza, sistematizza ed espone le costanti riscontrate nella relazione tra voce e movimento. L'indagine deriva dal presupposto, a me suggerito dalla pratica e dallo scambio con maestri e performer, e qui approfondito e restituito a livello teorico, che nella danza e nel canto, nell'espressione attraverso il movimento o attraverso la voce, si riflettono gli stessi principi. La tesi è articolata in tre capitoli: i primi due sviluppano le linee di indagine comparata, prima da un punto di vista filosofico e poi da un punto di vista pratico, il terzo porta alla luce il concetto di gesto-vocale come inteso da Francesca della Monica, di cui questo studio rappresenta il primo contributo scientifico, aprendo una ricerca nuova agli studi di settore. Il primo capitolo, 'Risonanze', sviluppa le premesse filosofiche della questione, introduce il corpo come veicolo di voce e movimento, affronta il tema del movimento della voce nello spazio interno del corpo e nello spazio di relazione. Legge poi il movimento in termini temporali, secondo i concetti di istante, ritmo, forma e flusso. Il secondo capitolo, 'Costanti', espone le costanti concrete della relazione voce-movimento in riferimento allo spazio interno del corpo, all'azione, allo spazio esterno di relazione. Il terzo capitolo, 'Confini', analizza il gesto vocale, come inteso da Francesca della Monica, concetto sintesi dell'intera ricerca poiché integra, nella sua essenza, il movimento fisico e vocale, restituendo e approfondendo lo spettro di riflessioni emerse nei primi due capitoli. Il gesto vocale, nella sua accezione espressiva, così come il lavoro di Francesca della Monica, è ancora estraneo agli studi di settore e trova in questo studio un primo contributo accademico. Le fonti sono quelle dell'insegnamento orale di Francesca della Monica, che ho seguito per nove anni, fino a desumerne una mia personale sistematizzazione, integrata con altri punti di vista critici. Analizzo i diversi livelli di profondità del gesto vocale scandendo il tema secondo la categoria della relazione: relazioni motorie, relazioni materiche, relazioni spaziali, temporali, compositive e sinestesiche. Le fonti della ricerca sono scaturite da due sorgenti, quella sul campo, e quella della teoria, confluite qui in un unico flusso. Le fonti 'in presa diretta' sono state avvalorate e confrontate con le fonti relative agli studi di settore (in particolare per la filosofia Giovanni Piana, Carlo Serra, Merleau-Ponty, per il teatro, il canto e la danza Grotowski, Laban, Dalcroze, Tomatis) e le bodywork techniques (Kinesiologia, Body-mind centering, metodo Alexander, metodo Feldenkrais). Ampio spazio viene dato alla grecità antica, che propone sull'espressione di voce e movimento un pensiero integrato carico di speculazioni che racchiudono in nuce i principi sviluppati. Lo studio tenta di offrire un livello di lettura idoneo a suscitare l'interesse del performer, e a valere come momento di indagine per lo studioso, che possa da queste basi operare approfondimenti sulle connessioni proposte. L'obiettivo è restituire la conoscenza, intuita in virtù della pratica, elaborata ed arricchita grazie alla teoria, su un nodo fondamentale per gli studi teatrali e recente oggetto di attenzione da parte di critici e artisti.
Resumo:
Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
L’obiettivo dello studio è quello di determinare le cause della rottura a fatica in un accoppiamento albero–mozzo. Nella prima parte si cerca di costruire un modello FEM (attraverso Ansys Workbench 12.0) che simuli il comportamento del provino albero-mozzo sottoposto a una flessione alterna, come nella macchina di Moore. Con esso si cercherà di individuare le variabili del problema e quali potranno influenzare la σy_max e il Kt. Nella seconda parte si cercherà di stabilire se il fretting sia funzione dalle stesse variabili del Kt, se esiste una transizione tra i due fenomeni e la quantità di usura prodotta dal fretting. Infine si realizzeranno delle prove sperimentali per verificare le ipotesi dedotte dall'analisi FEM.
Resumo:
L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.