96 resultados para gravità, modifica
Resumo:
Il Progetto XCModel, che da dieci anni si sviluppa e si perfeziona col contributo di varie persone, consente la progettazione di scene 3D e la resa fotorealistica. Esso si appoggia sulle funzionalita' grafiche di X-Window in Linux: si tratta di un ambiente in costante evoluzione, dovuta sia alle continue innovazioni hardware che ai cambiamenti degli standard. XCModel e' composto da vari pacchetti, ognuno dei quali specializzato nel trattare un particolare aspetto della modellazione o della resa (curve, superfici, textures, luci, ...) e che si presentano come applicazioni dotate di una sofisticata interfaccia grafica. Tutte attingono alle funzioni della Libreria XTools, che fornisce numerose primitive grafiche facenti uso delle potenzialita' di X-Window. I recenti cambiamenti nelle specifiche di X-Org, ed in particolare la de- standardizzazione del backing-store, ha obbligato il team di XCModel ad una consistente riprogettazione di XTools e di tutti i pacchetti che su di esso s'appoggiano. S'e' colta l'occasione per un massiccio debugging e per modificare i pacchetti in base alle impressioni emerse nel corso degli anni da parte degli utilizzatori, primi tra tutti gli studenti del corso di Grafica tenuto dal Prof. Giulio Casciola, project-manager di XCModel: questa e' un'ulteriore testimonianza del continuo adattamento e dell'aggiornabilita' del Progetto! Nella fattispecie, ci si occupera' delle modifiche effettuate in particolare al pacchetto XCSurf, finalizzato alla creazione ed alla modifica di curve e superfici 3D da utilizzarsi successivamente per la creazione delle scene: tale pacchetto e' di fatto risultato il pie' avulso dalle specifiche di XTools, il che ha costretto ad un massiccio intervento al codice del programma, ma d'altro canto ha consentito una standardizzazione del pacchetto in linea con gli altri, in particolare ridisegnandone l'interfaccia. Nel primo capitolo si effettuera' una veloce panoramica dell'ambiente XCModel e delle problematiche emerse dai cambiamenti degli standard di X-Window. Il secondo capitolo affrontera' un'ampia analisi dell'hardware, del software e dei paradigmi che caratterizzano la grafica interattiva, e gli ambienti necessari per interagire con essa ed esaminando i vari obiettivi raggiungibili. Infine, il terzo capitolo analizzera' nel dettaglio le modifiche effettuate ai pacchetti di XCModel ed in particolare ad XCSurf per l'adattamento ai nuovi standard, nel rispetto delle politiche e delle linee guida dettate dalla grafica interattiva.
Resumo:
Presentiamo alcune proposte di modifica alle superfici di suddivisione di Catmull-Clark, per garantire la continuità del secondo ordine anche nei vertici straordinari e una buona qualità di forma. La ricerca di questi miglioramenti è motivata dal tentativo di integrazione delle superfici di suddivisione in un sistema di modellazione geometrica in contesto CAD/CAGD, il quale richiede che certi requisiti di regolarità e qualità siano soddisfatti. Illustriamo due approcci differenti per la modifica della superficie limite. Il primo prevede il blending tra la superficie originale e una superficie polinomiale approssimante, definita opportunamente, in modo tale da ottenere la regolarità desiderata. Il secondo metodo consiste nella sostituzione della superficie di Catmull-Clark con un complesso di patch di Gregory bicubici e adeguatamente raccordati. Insieme all’attività di analisi, riformulazione ed estensione di queste proposte, abbiamo realizzato una implementazione in codice C/C++ e OpenGL (con programmi accessori scritti in MATLAB e Mathematica), finalizzata alla sperimentazione e alla verifica delle caratteristiche dei metodi presentati.
Resumo:
La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.
Resumo:
I fattori che, nei primi anni dell'aviazione, contribuivano al verificarsi o meno di una sciagura aerea erano principalmente di natura meccanica, mentre oggi la maggior parte degli incidenti è attribuibile all’errore umano. Nel corso del tempo sono stati sviluppati modelli per l’analisi del fattore umano ed ha assunto un ruolo fondamentale lo studio del crashworthiness allo scopo di sviluppare tecnologie che contribuiscano alla riduzione di incidenti aerei e del tasso di mortalità. In questo studio è stata analizzata la resistenza della fusoliera di un aliante DG-100G Elan nelle principali tipologie di impatto. Le statistiche evidenziano, come cause principali di incidente, la caduta in vite e lo stallo in prossimità del suolo. Dall’analisi dei risultati ottenuti con la configurazione di base dell’aliante è stata delineata una possibile modifica per migliorarne la resistenza ad impatto. Obiettivo dello studio è la verifica in prima approssimazione della bontà o meno dei risultati ottenuti attraverso l’introduzione delle modifiche, valutando la differenza di quest’ultimi fra le due configurazioni.
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
In questo documento di tesi viene descritta la progettazione e la realizzazione di estensioni per il sistema di authoring AContent. L'idea è di creare un'estensione dell'authoring tool che implementi il concetto di template ovvero strumenti di grande efficacia e di facile utilizzo nelle fasi di redazione dei contenuti. Si prevede di aggiungerli ad AContent senza la necessità di integrare un intero motore di template ma utilizzando strutture dati esistenti e specifiche standard di e-learning. I servizi aggiuntivi da offrire agli autori sono stati organizzati secondo tre approcci diversi da cui sono emersi tre livelli di template. Il Template di Layout che determina l'aspetto grafico dei contenuti, il Template di Pagina che definisce la struttura di ogni singola pagina e il Template di Struttura che propone e imposta un modello per la struttura dell'intero contenuto didattico. Il documento è costituito da una seconda parte di progetto che va a coinvolgere il sistema ATutor e pone grande attenzione sulle caratteristiche di interoperabilità fra l'authoring AContent e il LCMS ATutor. Lo scopo è quello di estendere le funzionalità di integrazione dei contenuti del sistema così da presentare materiale didattico esterno archiviato in AContent. Viene trattata l'integrazione di LTI all'interno dei due sistemi considerati assegnando i ruoli di Tool Provider (AContent), fornitore di contenuti didattici remoti e Tool Consumer (ATutor), richiedente di tali contenuti. Sono considerati, infine, i due moduli di ATutor AContent Repository e External Tool che si occupano di importare materiale didattico da AContent tramite il Web Service REST. Si prevede la loro modifica affinché, attraverso il canale di comunicazione LTI stabilito, siano in grado di creare dei Live Content Link ovvero riferimenti a contenuti remoti (esterni alla piattaforma utilizzata) aggiornati in tempo reale. Infatti, a differenza di una normale importazione di un LO esterno è previsto che venga creano un "riferimento". In questo modo, la modifica di una pagina sul Tool Provider AContent si ripercuoterà istantaneamente su tutti i contenuti dei Tool Consumer che hanno instaurato un Live Content Link con il provider.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
In questo lavoro verrà analizzato lo sviluppo di una nuova modellazione matematica per la simulazione della dinamica del flusso all’interno del sistema di aspirazione per motori sovralimentati. Tale modellazione si basa sulla risoluzione numerica mediante la formulazione proposta da Courant, Isaacson e Rees (CIR) nel 1952 per il set delle equazioni non conservative di Eulero per il caso monodimensionale. L’applicazione attraverso il software Matlab-Simulink di tali discretizzazioni numeriche garantisce la possibilità di calcolare la dinamica del flusso all’interno del condotto. L’innovazione proposta da questo lavoro consiste nel considerare l’intero stato da iterare come un vettore, permettendo di gestire parte delle operazioni da compiere con delle matrici. Questo approccio è stato adottato sia per una maggior velocità di calcolo, sia per rendere più agevole la modifica della geometria, ad esempio in fase di progettazione. La routine di lancio del nuovo modello, infatti, gestirà autonomamente la scrittura delle matrici, a partire dai pochi parametri necessari per la definizione della geometria all’interno del codice. Si andranno quindi a presentare i passaggi più importanti che hanno portato alla scrittura del codice, con particolare attenzione poi alla fase di validazione del modello. Essa sarà basata sia su un altro codice presente in letteratura, modellato anch’esso attraverso risoluzione CIR, sia mediante dati sperimentali utilizzati per la validazione di tale implementazione. Seguirà infine un’analisi dettagliata sui fattori che influenzano, positivamente e negativamente, l’esito delle simulazioni realizzate, come la discretizzazione spaziale e quella temporale, prestando sempre particolare attenzione alla stabilità del metodo.
Resumo:
Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
Nel presente lavoro sono esposti i comportamenti e le caratteristiche principali dei giunti incollati. Il metodo agli elementi finiti è stato studiato in modo da realizzare un modello accurato di un sistema fisico. L’analisi agli elementi finiti è stata utilizzata per effettuare una simulazione numerica di un single-strap joint in alluminio e in CFRP sotto un carico di trazione assiale. L’effetto di una modifica della distanza tra le lastre è stato studiato e i risultati confrontati.
Resumo:
Esposizione di comportamenti e caratteristiche principali dei giunti incollati. Il metodo agli elementi finiti è stato studiato in modo da realizzare un modello accurato di un sistema fisico. L’analisi agli elementi finiti è stata utilizzata per effettuare una simulazione numerica di un double-strap joint in alluminio e in CFRP sotto un carico di trazione assiale. L’effetto di una modifica della distanza tra le lastre è stato studiato e i risultati confrontati.
Resumo:
Nel presente lavoro si espone un algoritmo che riproduce la forma dell'involucro di un pallone aerostatico ad aria calda. Si utilizza il metodo della cloth simulation per simulare il comportamento del tessuto sotto l'azione di forze di pressione, forze elastiche e forza di gravità. Si confrontano infine i risultati ottenuti variando la pressione interna dell'involucro, il modulo di elasticità del tessuto e i carichi applicati.
Resumo:
Le reti ottiche, grazie alla loro elevata capacità, hanno acquisito sempre maggiore importanza negli ultimi anni, sia per via del crescente volume di dati scambiati, legato soprattutto alla larga diffusione di Internet, sia per la necessità di comunicazioni in tempo reale. Dati i (relativamente) lunghi tempi di adattamento, questa tecnologia nativamente non è quella ottimale per il trasporto di un traffico a burst, tipico delle telecomunicazioni odierne. Le reti ibride cercano, quindi, di coniugare al meglio le potenzialità della commutazione ottica di circuito e della commutazione ottica a pacchetto. In questo lavoro, in particolare, ci si è concentrati su un'architettura di rete ibrida denominata 3LIHON (3-Level Integrated Hybrid Optical Network). Essa prevede tre distinti livelli di qualità di servizio (QoS) per soddisfare differenti necessità: - Guaranteed Service Type (GST): simile ad un servizio a commutazione di circuito, non ammette perdita di dati. - Statistically Multiplexed Real Time (SM/RT): simile ad un servizio a commutazione di pacchetto, garantisce ritardo nullo o molto basso all'interno della rete, permette un piccolo tasso di perdita di dati e ammette la contesa della banda. - Statistically Multiplexed Best Effort (SM/BE): simile ad un servizio a commutazione di pacchetto, non garantisce alcun ritardo tra i nodi ed ammette un basso tasso di perdita dei dati. In un nodo 3LIHON, il traffico SM/BE impossibile da servire, a causa ad es. dell'interruzione da parte di pacchetti aventi un livello di QoS più prioritario, viene irrimediabilmente perso. Questo implica anche lo spreco del tempo e delle risorse impiegati per trasmettere un pacchetto SM/BE fino alla sua interruzione. Nel presente lavoro si è cercato di limitare, per quanto possibile, questo comportamento sconveniente, adottando e comparando tre strategie, che hanno portato alla modifica del nodo 3LIHON standard ed alla nascita di tre sue varianti.