999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trattamento dati, modellazione e calibrazione di un motore da competizione

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nello sport di alto livello l’uso della tecnologia ha raggiunto un ruolo di notevole importanza per l’analisi e la valutazione della prestazione. Negli ultimi anni sono emerse nuove tecnologie e sono migliorate quelle pre-esistenti (i.e. accelerometri, giroscopi e software per l’analisi video) in termini di campionamento, acquisizione dati, dimensione dei sensori che ha permesso la loro “indossabilità” e l’inserimento degli stessi all’interno degli attrezzi sportivi. La tecnologia è sempre stata al servizio degli atleti come strumento di supporto per raggiungere l’apice dei risultati sportivi. Per questo motivo la valutazione funzionale dell’atleta associata all’uso di tecnologie si pone lo scopo di valutare i miglioramenti degli atleti misurando la condizione fisica e/o la competenza tecnica di una determinata disciplina sportiva. L’obiettivo di questa tesi è studiare l’utilizzo delle applicazioni tecnologiche e individuare nuovi metodi di valutazione della performance in alcuni sport acquatici. La prima parte (capitoli 1-5), si concentra sulla tecnologia prototipale chiamata E-kayak e le varie applicazioni nel kayak di velocità. In questi lavori è stata verificata l’attendibilità dei dati forniti dal sistema E-kayak con i sistemi presenti in letteratura. Inoltre, sono stati indagati nuovi parametri utili a comprendere il modello di prestazione del paddler. La seconda parte (capitolo 6), si riferisce all’analisi cinematica della spinta verticale del pallanuotista, attraverso l’utilizzo della video analisi 2D, per l’individuazione delle relazioni Forza-velocità e Potenza-velocità direttamente in acqua. Questo studio pilota, potrà fornire indicazioni utili al monitoraggio e condizionamento di forza e potenza da svolgere direttamente in acqua. Infine la terza parte (capitoli 7-8), si focalizza sull’individuazione della sequenza di Fibonacci (sequenza divina) nel nuoto a stile libero e a farfalla. I risultati di questi studi suggeriscono che il ritmo di nuotata tenuto durante le medie/lunghe distanze gioca un ruolo chiave. Inoltre, il livello di autosomiglianza (self-similarity) aumenta con la tecnica del nuoto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Popillia japonica Newman (Coleoptera, Scarabaeidae) o, più volgarmente, scarabeo giapponese, è un insetto che dagli aerali d’origine in Asia orientale è arrivato negli USA a partire dai primi del '900 e infine si è diffuso in numerosi territori nel mondo. In Italia, P. japonica, classificato come insetto da quarantena, si trova principalmente in due regioni: Piemonte e Lombardia; in Emilia-Romagna la presenza è ancora sporadica. Insetto altamente polifago e capace di nutrirsi a spese di molte specie botaniche, può causare danni diretti ed indiretti che vanno a inficiare la produzione e la qualità. Sulla vite, sia europea che americana, il coleottero adulto provoca defogliazioni che, se non controllate, possono portare ad una totale perdita della superfice fogliare. Le larve non attaccano direttamente la vite ma possono causare danni alla vegetazione erbacea di interfila e sottofila. È fondamentale limitare l’espansione di P. japonica sul territorio Italiano, poiché i danni che potrebbe causare ammonterebbero a svariati milioni di euro ogni anno. Le azioni di monitoraggio, che sono eseguite principalmente tramite trappole a feromoni e rilievi visivi, sono quindi di estrema importanza. Esistono vari metodi di gestione utili a contenere le popolazioni di P. japonica sia allo stato larvale che adulto. A oggi, i più efficaci si basano sull’utilizzo di insetticidi di sintesi attivi contro larve e adulti. I metodi di gestione agronomici possono contribuire a ridurre la presenza dell’insetto contenendo soprattutto la popolazione larvale e in parte anche quella adulta. Purtroppo i risultati ottenuti tramite lotta biologica sono, invece, piuttosto scarsi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le gallerie del vento a pareti chiuse non permettono di ottenere risultati fedeli alla realtà a causa di numerosi effetti di interferenza. In questa tesi si provvede ad elencare i fenomeni di maggior rilievo che contribuiscono al bloccaggio e successivamente si presentano le principali formule correttive da applicare ai risultati per renderli più vicini a quelli ottenuti nei test su strada. I metodi di correzione ottenuti sono poi confrontati fra loro grazie al supporto di simulazioni in cui vengono fatte variare sia la geometria del modello, sia le condizioni al contorno, al fine di comprendere quali formule siano più efficienti in certe situazioni. Infine, sono proposti metodi alternativi alle soluzioni numeriche, in particolare sono illustrate le gallerie del vento a pareti aperte, con i loro vantaggi e svantaggi rispetto a quelle con pareti chiuse. Riguardo a queste ultime, inoltre, nell'elaborato sono esposti due metodi per limitare il bloccaggio, agendo, cioè, sulla loro geometria: le gallerie del vento a pareti fessurate e quelle con le pareti regolabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pelle dello squalo è stata validata come un efficace sistema di controllo della resistenza di attrito privilegiato in regime turbolento. Essa è stata oggetto di numerosi studi volti a rendere realizzabili repliche quanto più simili alla sua reale struttura superficiale. In questa trattazione, partendo da una breve digressione storica sull’evoluzione dello studio delle rugosità superficiali, sono state analizzate le principali campagne sperimentali svolte in merito alla replica di superfici con Riblets 2D. Di queste ultime, sono state stimate le prestazioni per sezioni triangolari, smerlate, a lama e, per ciascuna di esse, è stata fornita la rispettiva ottimizzazione dei parametri caratteristici della geometria. Inoltre, è stato presentato uno studio sperimentale, in cui sono state impiegate Riblets 3D a lama trapezoidale, mostrando le criticità rispetto alle Riblets 2D. Successivamente, è stata fornita un’analisi che ha evidenziato il ruolo dell’orientazione delle superfici Riblet e delle nervature tridimensionali disposte sopra di esse, rispetto al flusso; in quanto è stato supposto che, nella reale pelle di squalo, ciò avrebbe potuto compensare la perdita di prestazioni rispetto al caso 2D. Infine, sono state discusse le tecniche di fabbricazione delle superfici Riblet tramite micro-goffratura e micro-stampaggio, considerando qulle più efficaci per la produzione di superfici ad alte prestazioni, commercializzabili in ambito industriale. In particolare, in questa trattazione è stata discussa la produzione di pellicole di rivestimento per la superficie esterna dei velivoli, stimando la riduzione della resistenza su diversi profili alari in differenti regimi di moto e sono state confrontate le prestazioni delle riblets su tre diversi tessuti impiegati per il nuoto competitivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il diabete mellito è una delle malattie più diffuse al mondo ed i casi accertati aumentano ogni anno. Dai primi metodi di monitoraggio della glicemia attraverso ripetute punture, oggi si punta maggiormente su un monitoraggio continuo dei parametri di interesse. Sebbene le innovazioni tecnologiche legate al controllo del diabete si siano largamente fatte strada negli ultimi anni, spesso la praticità, i costi e la manutenzione di tali dispositivi non sono aspetti ottimali per gli individui che ne devono fare uso. L’obbiettivo tecnologico dei giorni d’oggi è quello di aumentare l’autonomia degli individui nell’utilizzo di dispositivi professionali per il miglioramento del proprio stile di vita, a maggior ragione in ambito medico-biologico. Questo elaborato analizza l’evoluzione dei metodi di rilevazione dei parametri legati alla malattia del diabete, con particolare attenzione sulle recenti proposte di innovazione tecnologica. Inoltre, si ripropone di evidenziare il metodo più efficace tra quelli esaminati: l’utilizzo di bioinchiostri come reagenti sottocutanei. Questa tecnica innovativa si ripromette di diminuire fortemente i costi e gli sprechi legati ai dispositivi monouso. Inoltre, permette una maggiore raccolta di informazioni continuative, attraverso la proposta di un accoppiamento con dispositivi mobili, largamente diffusi ai giorni d’oggi, da poter condividere facilmente e comodamente con il proprio gruppo di medici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUZIONE - La presente ricerca è incentrata sul monitoraggio dell’efficacia dei progetti di Educazione Avventura con adolescenti difficili, in particolare del progetto “Lunghi cammini educativi”. A partire da un’analisi della letteratura sull’educazione esperienziale nature-based e in particolare sull’Adventure Education con adolescenti difficili, è stata progettata una rilevazione empirica attraverso cui sperimentare un metodo di monitoraggio finalizzato a cogliere la dimensione processuale (che nella ricerca nell’ambito resta spesso inesplorata, poiché sono maggiormente diffusi i metodi di monitoraggio cosiddetti “black-box”), utilizzando un sistema integrato di diverse tecniche di rilevazione. Le due principali domande che hanno guidato la ricerca sono state: 1.Quali processi educativi significativi si innescano e possono essere osservati durante l’esperienza? 2.Il metodo dell’intervista camminata, integrato ad altri metodi, è utile per individuare e monitorare questi processi? METODO - Collocandosi all’interno di un framework metodologico qualitativo (influenzato da riflessioni post-qualitative, paradigma delle mobilità e sguardo fenomenologico), la ricerca prende la forma di uno studio di caso singolo con due unità di analisi, e prevede la triangolazione di diversi metodi di raccolta dei dati: analisi documentale; osservazione partecipante nei cammini e nelle riunioni di équipe; interviste (prima, durante, dopo il cammino) con differenti tecniche: camminata, “image-elicited”, tradizionale, online. RISULTATI - L’analisi tematica abduttiva delle interviste e delle osservazioni conferma quanto già evidenziato dalla letteratura circa la centralità della dilatazione del campo d’esperienza e del lavoro su alcune life skills (in particolare, competenze personali e growth mindset). Emergono anche alcuni key findings inattesi: il notevole “peso” dello stile educativo dell’accompagnatore; la “scoperta” del ruolo della quotidianità all’interno dell’esperienza straordinaria; la necessità di consapevolezza riguardo al potenziale educativo dell’ambiente (naturale e/o antropizzato), per una maggiore intenzionalità nelle scelte strategiche di cammino. L’intervista camminata, nonostante alcuni limiti, si conferma come metodo effettivamente utile a cogliere la dimensione processuale, e coerente con il contesto indagato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce da un progetto di ricerca promosso nel 2001 dal Prof. Leonardo Seccia (Seconda Facoltà di Ingegneria, sede di Forlì, e C.I.R.A.M., Università di Bologna), dal Prof. Nicola Santopuoli (Facoltà di Architettura Valle Giulia, Sapienza Università di Roma), dal Prof. Ingo Muller e dal Dott. André Musolff (Technical University Berlin, Facultat III, Thermodynamics). Tale progetto ha avuto come obiettivo lo studio, la progettazione e la realizzazione di un dispositivo di ancoraggio in lega a memoria di forma per il restauro di affreschi e mosaici parietali, che presentino distacchi più o meno evidenti fra gli strati di intonaco di supporto, proponendosi come mezzo efficace per la salvaguardia strutturale di tali zone variamente ammalorate. In particolare, è stata programmata una serie di prove di laboratorio per caratterizzare in modo preciso il comportamento del materiale prescelto, al fine di realizzare un prototipo rispondente alle caratteristiche di progetto ed anche per implementare un modello numerico sufficientemente realistico. A questo proposito, è stato anche approfondito il problema della scelta del modello costitutivo più adeguato. Successivamente, i risultati ottenuti sono stati impiegati nella progettazione e realizzazione di nuovi dispositivi in lega a memoria di forma da impiegare nel campo dei beni culturali, fra cui sistemi reversibili per il ricongiungimento di parti fratturate e sistemi di movimentazione intelligenti sia per lastre di protezione di superfici affrescate, sia per finestre da inserire in contesti museali per il controllo del microclima.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è l'installazione di un Rilassometro ottenuto a partire da un magnete permanente situato nel Dipartimento di Fisica e Astronomia (DIFA - via Irnerio, 46), al fine di eseguire misure attendibili di Rilassometria in mezzi porosi su campioni del diametro di alcuni centimetri. Attualmente nel Dipartimento è gia presente un elettromagnete adibito a misure di questo tipo; tuttavia, questo strumento permette lo studio di campioni di piccole dimensioni (circa 220mm3) e si rivela insuffciente per lo studio di rocce, coralli e altre strutture porose di più grande dimensione senza la frantumazione del campione stesso; per questa ragione si è presentata la necessità dell'istallazione di una nuova strumentazione. Parte della strumentazione utilizzata è in disuso da parecchi anni e le caratteristiche devono essere verificate. Dopo l'assemblaggio della strumentazione (magnete, console, probe), sono state determinate le migliori condizioni in cui effettuare le misure, ovvero i parametri fondamentali dell'elettronica (frequenza di risonanza, TATT, tempo morto del probe, tempo di applicazione dell'impulso 90°) e la zona di maggiore uniformità del campo magnetico. Quindi, sono state effettuate misure di T1 e T2 su campioni bulk e su un campione di roccia saturata d'acqua, confrontando i risultati con valori di riferimento ottenuti tramite elettromagnete. I risultati ottenuti risultano consistenti con i valori attesi, con scarti - inevitabili a causa della grande differenza di volume dei campioni - molto ridotti, pertanto l'installazione del nuovo Rilassometro risulta essere completata con successo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare.