969 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perché permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perché non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perché la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Progettazione del nuovo layout per un nuovo stabilimento produttivo, in cui il gruppo Fiorini Industries S.r.l., in un'ottica di espansione e miglioramento dei parametri tecnici e dei flussi aziendali, si insedia lasciando la sua storica sede produttiva. Questo bisogno nasce dall'impossibilità di espansione dello stabilimento odierno e dalla necessità di ridurre i costi di movimentazione dei materiali durante il ciclo di produzione. La tesi si colloca in questo contesto di necessità di verificare le prestazioni del lay-out attuale, valutandone le problematiche e le criticità al fine di potere identificare delle valide soluzioni di layout per la nuova sede produttiva dal punto di vista tecnico-economico e ambientale. Il CAPITOLO1 è volto ad inquadrare il problema affrontato nella situazione odierna; mettendo in evidenza la rilevanza del lay-out. Viene poi spiegato in maniera approfondita l'approccio di progettazione seguito. Al CAPITOLO 2 spetta la presentazione dell'azienda, della sua storia, della sua gamma di prodotti e dei suoi reparti di lavorazione. L'inquadramento aziendale è necessario al fine di capire le esigenze aziendali di cui si dovrà tenere conto durante lo svolgimento del lavoro. Nel CAPITOLO 3 si procede con l'analisi della situazione attuale, recuperando i dati di input necessari alla determinazione del mix produttivo offerto al mercato, quindi con l'analisi dei cicli produttivi, dei flussi e delle risorse impiegate per le movimentazioni. Il CAPITOLO 4 illustra il nuovo polo industriale del gruppo e presenta le alternative di lay-out individuate, che vengono analizzate dal punto di vista economico per individuare il possibile saving economico annuo rispetto alla situazione attuale. Per completezza di informazione vengono presentate anche aree che non vengono progettate tramite l'analisi tecnico economica (Blocco 2 e Uffici). Il capitolo termina con la scelta del nuovo layout per la nuova sede, dove vengono studiati i saving annui in base ai mezzi di movimentazioni attuali e quelli implementabili. L'ultima parte dell'elaborato valuta le emissioni di anidride carbonica dovute alle movimentazioni interne e valuta la possibile riduzione di emissioni di CO2 con il nuovo layout.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Gli obiettivi dell'elaborato sono lo studio e la programmazione di un algoritmo di controllo di temperatura per le superfici termosaldanti di macchine per il packaging (confezionatrici in film a file multiple) prodotte dal committente, OMAG srl. L'algoritmo è implementato tramite il software SoMachineMotion v.4.2, prodotto da Schneider Electrics spa. Il controllo è di tipo in anello chiuso in retroazione, con temocoppie e resistenze di riscaldamento con modulazione PWM. Ci si è inizialmente occupati di testare su banco prova varie tipologie di regolatori: a relay, a isteresi, a ricerca diretta del duty cycle, TBH, con approccio misto TBH/integratore di Clegg, PID. I diversi metodi di regolazione sono stati valutati sulla base di una serie di metri di giudizio (precisione dell'inseguimento, prestazioni statiche e dinamiche, flessibilità, peso computazionale, facilità implementativa), pesati secondo i requisiti imposti dal committente. Le metodologie selezionate sono state PID e TBH/Clegg integrator; quest'ultima ha dato risultati assai soddisfacenti, pur essendo un metodo monoparametrico. Si sono quindi studiate diverse modalità per la taratura del regolatore PID, in particolare: tuning in anello chiuso con metodo a relay per la fase di pretuning, algoritmo di Nelder-Mead, per la ricerca diretta continua dei valori che minimizzano l'errore integrale, per un selftuning adattivo. Si è infine proceduto ad implementare le soluzioni individuate in un software robusto, che rispetti gli standard del settore e si sono inoltre sviluppate una serie di funzionalità aggiuntive, quali: modulazione software PWM, preriscaldamento, handling errori/warning, filtraggio segnali in/out. Si è addizionalmente sviluppato un modello matematico predittivo dell'evoluzione del sistema, che potrebbe servire, in un futuro sviluppo, come base per un controllo model-based in cascata al controllo in retroazione studiato.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Studio di una procedura ottimale per il serraggio delle teste dei motori destinati alle moto che concorrono nel campionato mondiale Moto GP, svolto presso Ducati Corse. Lo studio era rivolto a prigionieri in acciaio e prigionieri in lega di titanio. Sono state svolte prove di serraggio per valutare le caratteristiche dell'accoppiamento, in termini di stima dei coefficienti di attrito, coppie di serraggio, precarichi e materiali. Per i prigionieri in acciaio sono state proposte modifiche alle attuali procedure in uso in azienda ed è stata approvata una procedura di serraggio che porta i migliori risultati possibili in termini di stabilità dei precarichi di serraggio raggiunti. Per i prigionieri in titanio lo studio ha riguardato la scelta del lubrificante migliore e l'utilizzo di diverse tipologie di dadi. Con le attrezzature attualmente presenti in Ducati Corse non è stato possibile approvare una procedura di serraggio ottimale. Si è comunque definito il miglior accoppiamento di materiali per poter testare in seguito una procedura di serraggio proposta.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi è quello di sviluppare un prototipo di scaffold tri-strato che favorisca la rigenerazione del tessuto parodontale, mimando i differenti tessuti mineralizzati del parodonto per il trattamento, in particolare, delle parodontiti avanzate.Le prime attività si baseranno sulla definizione di un metodo che permetta la standardizzazione della fase dei lavaggi inerente al processo di produzione dello scaffold parodontale. Tale fase risulta, infatti, altamente operatore-dipendente e pertanto l’acqua contenuta prima e dopo il lavaggio, non essendo controllata, influenza diversamente le caratteristiche del prodotto finale. Infine, per garantire l’assottigliamento dello strato intermedio collagenico (tale da rispettare le caratteristiche strutturali del legamento parodontale in vivo) saranno testate diverse condizioni di liofilizzazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro nasce dalla mia curiosità di comprendere le vicende che hanno sconvolto Hong Kong da settembre 2014 fino ad oggi con l’obiettivo di cogliere le cause principali che hanno innescato le proteste degli abitanti dell’isola. Il mio elaborato è composto da due capitoli: il primo, riguardante la storia di Hong Kong, ne ripercorre tutte le fasi principali: dalla scoperta dell’isola da parte delle navi inglesi fino alla cosiddetta “Rivoluzione degli Ombrelli”, passando per il 1997, anno in cui Hong Kong ritorna alla Cina; il secondo capitolo è dedicato all’analisi terminologica condotta su un corpus di 177,671 token e 15,832 types creato il 5 Maggio 2015 utilizzando i software BootCat e Antconc. L’analisi terminologica ha come scopo quello di analizzare espressioni e termini riguardanti le proteste di Hong Kong, scoppiate il 28 Settembre 2014, per osservare in che modo il linguaggio politico e i simboli della protesta abbiano condizionato la percezione di questi avvenimenti da parte dell’opinione pubblica cinese ed internazionale. Infine, ho organizzato i termini più significativi in schede terminologiche che ho inserito nell’appendice. Gli obiettivi del mio elaborato sono quelli di presentare le recenti rivolte di Hong Kong che, a mio avviso, non hanno avuto una grande risonanza nel nostro paese, cercando di approfondirne gli aspetti più salienti. Inoltre ho scelto di trattare questo argomento perché analizzare le relazioni tra la Cina e una delle proprie “aree periferiche” permette di osservare la politica, la società e la cultura cinese da un punto di vista affascinante e inusuale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo elaborato vengono presentate la traduzione di un estratto di un romanzo di Terry Pratchett, The fifth elephant, e l’analisi di questa traduzione, realizzata con l’aiuto di un corpus costruito ad hoc per questa ricerca. Nel corpus sono state inserite le traduzioni italiane di otto romanzi differenti, scritti dallo stesso autore, Terry Pratchett, e tradotti da tre traduttrici professioniste. Questo corpus è stato ideato appositamente per coadiuvare il processo di traduzione dell’estratto e per esemplificare un metodo di analisi del lavoro di traduttori professionisti. Questo tipo di analisi, nota come translational stylistics, ha lo scopo di identificare le differenze esistenti a livello stilistico tra i traduttori, cercando nello specifico quegli elementi che permettano di identificare e distinguere tra loro i lavori di un determinato traduttore da quelli di un altro, a prescindere dal testo di partenza. Questo elaborato si apre con la descrizione tecnica di un corpus, spiegandone gli utilizzi nel campo della ricerca e i metodi di costruzione. In seguito viene fornita una panoramica dell’autore e delle sue opere, e vengono fornite informazioni sulle traduzioni in italiano di questi romanzi e sulle traduttrici che le hanno elaborate. Viene quindi presentata la traduzione dell’estratto, seguita da un’analisi dei problemi traduttivi affrontati durante il processo di traduzione e di come il corpus abbia aiutato a risolvere e superare queste difficoltà. Infine viene presentato uno studio di caso sulla translational stylistics che mostra le differenze a livello di stile esistenti tra i lavori di traduttori diversi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto dell’insorgenza delle anomalie “white-striping” e “wooden breast” (sia separatamente che contestualmente nell’ambito dello stesso filetto) su composizione chimica, profilo in acidi grassi e suscettibilità all’ossidazione lipidica e proteica. Le modificazioni riscontrate nella composizione chimica (maggiori livelli di collagene e lipidi a discapito del tenore in proteine) determinano una ridotta qualità nutrizionale con possibili effetti negativi sulla percezione del consumatore, oltre che sulla capacità di ritenzione idrica come riscontrato in precedenti studi. Per quanto riguarda il profilo in acidi grassi, l’effetto delle anomalie è stato più limitato rispetto a quanto ipotizzato. Infatti, nonostante l’aumento dei lipidi totali, le carni di petto anomale non presentano modificazioni nel contenuto di acidi grassi monoinsaturi e polinsaturi totali. Le uniche differenze hanno riguardato il totale degli acidi grassi saturi e il contenuto di acidi grassi essenziali (EPA, DPA, DHA) che sono risultati significativamente inferiori. Le ridotte quantità di EPA e DPA nei petti anomali possono essere correlate alla minore attività degli enzimi Δ5 e Δ6 desaturasi, probabilmente in ragione della complessiva riduzione nell’espressione dei geni che codificano tali enzimi. Da sottolineare infine che le carni anomale hanno presentato livelli inferiori di emepigmenti. Per quanto attiene alle caratteristiche tecnologiche, è stata osservato un maggiore livello di ossidazione delle proteine in relazione alla presenza dell’anomalia wooden breast. Al contrario, l’ossidazione dei lipidi non ha mostrato differenze sostanziali fra i campioni anomali e quelli normali. Nel complesso, pertanto questo lavoro di tesi ha ulteriormente evidenziato i rischi connessi all’utilizzo delle carni anomale, e soprattutto di quelle affette da wooden breast, nella preparazione di prodotti trasformati in relazione al peggioramento delle rese di lavorazione dovuto alla minore concentrazione e qualità delle proteine. La componente lipidica sembra invece essere meno compromessa dalla presenza di tali anomalie.