887 resultados para Studi di gender


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’interesse da parte dell’industria alimentare verso il melograno sta aumentando in virtù delle sue caratteristiche nutrizionali, come ad esempio l’alto contenuto di composti fenolici, che rendono tale frutto interessante per la produzione di succhi funzionali. Studi riportano che il microbiota di tali frutti è rappresentato principalmente da lieviti, muffe, batteri mesofili e lattici che possono proliferare durante la conservazione dei succhi. L’obiettivo di questa tesi è stato quello di valutare l’effetto di trattamenti di pastorizzazione di sul livello di contaminazione microbica di succo di melagrana ottenuto da arilli di due cultivar. A tale scopo si è valutata l’efficacia delle condizioni di trattamento adottate nell’inattivare la microflora naturalmente presente nei succhi di frutta e la sua capacità di recuperare durante la fase di conservazione a temperature sia di refrigerazione, che ambiente. Inoltre si è realizzato un challenge test in cui i succhi sono stati deliberatamente contaminati con S. cerevisiae, L. plantarum e diversi patogeni. I risultati hanno mostrato come il succo di melagrana sia un prodotto a breve shelf-life (5 giorni) quando conservato a temperatura ambiente poichè soggetto ad un rapido sviluppo della microflora. Infatti, sebbene i livelli di contaminazione iniziale rilevati fossero complessivamente bassi, i lieviti hanno raggiunto rapidamente la soglia critica di spoilage (6 Log UFC/ml) nei succhi freschi. Le condizioni di trattamento termico adottate hanno portato ad una significativa riduzione della microflora a livelli inferiori al limite di rilevabilità, e le cellule sopravvissute al trattamento non sono state in grado di proliferare nel succo conservato a 4°C per quasi 2 mesi. Quando conservati a temperatura ambiente, i succhi esposti al processo più blando hanno presentato una shelf-life di circa 25 giorni, mentre questa è aumentata fino oltre 32 giorni nei prodotti trattati più a lungo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tema delle coperture in ambito archeologico è particolarmente presente nel dibattito architettonico attuale per le implicazioni che una tale struttura comporta nella relazione con un manufatto antico, nella lettura che ne può dare al pubblico e anche nello sviluppo di tecniche costruttive che consenta di coprire grandi luci interferendo il meno possibile con lo strato archeologico. I temi sviluppati in questa tesi di laurea partono dagli studi intrapresi durante il Laboratorio di Laurea “Archeologia e Progetto di Architettura” nell’anno accademico 2013-2014, che si è occupato delle analisi della città romana di Suasa, nel territorio marchigiano, con l’obiettivo di confrontarsi con le tematiche della musealizzazione e della progettazione in un ambito delicato come quello archeologico con tutte le sue particolarità. La tesi si occupa del progetto strutturale della copertura iniziato in gruppo con due miei colleghi, Thomas Fabbri e Sara Salvigni, la cui prima parte si è conclusa nel 2015 nella loro tesi di laurea intitolata Rileggere le tracce: valorizzazione e musealizzazione della città romana di Suasa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi del movimento umano mira alla raccolta di informazioni quantitative riguardo la meccanica del sistema muscolo-scheletrico durante l’esecuzione di un compito motorio. All’interno di questo contesto, la cinematica del passo rappresenta uno strumento d’indagine tra i più usati. Tra i diversi protocolli di analisi cinematiche si è affermato recentemente l’uso di sensori magnetico-inerziali. Il principale vantaggio di questi dispositivi rispetto alla tecnica tradizionalmente impiegata (la stereofotogrammetria) è che possono essere utilizzati al di fuori di un ambiente di laboratorio, rendendo meno vincolante la scelta del task motorio da analizzare. Lo stato dell’arte offre una molteplicità di studi basati sull’analisi del cammino e della corsa di atleti, professionisti o dilettanti, utilizzando sensori inerziali; nulla, però, è stato dedicato alla corsa con stampelle. In questo lavoro di tesi è stata dunque analizzata la corsa su stampelle di soggetti amputati (in particolare di atleti della Nazionale Italiana di Calcio Amputati). Dalla letteratura sono stati individuati tre metodi, ideati principalmente per la corsa di soggetti normodotati e in questa situazione riadattati per la corsa di soggetti con amputazione/malformazione di un arto inferiore, con i quali è stato possibile ricavare parametri temporali relativi al ciclo del passo; è stato inoltre progettato un nuovo metodo che permette di ricavare parametri temporali della corsa attraverso le fasi delle stampelle. L’elemento che contraddistingue questo studio è la presenza di un gold standard, dato da un riferimento video, con il quale sarà possibile determinare con più affidabilità quale metodo risulti più adeguato per l’analisi di questo tipo di corsa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio di fattibilità della conversione del Vought V-173 per il volo ad alta quota. Per realizzare l'intero lavoro si è adoperato il software di fluidodinamica computazionale Flow Simulation di SolidWorks e si è scelto l'ambiente Matlab per la fase di elaborazione e presentazione dati. A partire dal modello tridimensionale in SolidWorks del V-173 si sono ricreate le curve CL e CD a partire dai punti ottenuti dalle simulazioni per diverse configurazioni del velivolo. Si è valutata l'aerodinamica del velivolo senza la presenza di eliche e di ipersostentatori e successivamente si sono seguite due strade diverse per valutare il comportamento del velivolo: nel primo caso si sono eseguiti studi dell'aerodinamica del Pancake in presenza degli ipersostentatori già presenti sul velivolo originario (i plain flap). In secondo luogo, tenendo in considerazione che il Pancake è un aeroplano bielica, si è voluta studiare l'influenza delle due eliche sulla sua aerodinamica: dopo aver riprodotto nel modo più verosimile entrambe le eliche utilizzando SolidWorks si è fatto uno studio di massima ricavando risultati che potessero indicare la compatibilità tra elica e velivolo a seguito dei risultati sperimentali ottenuti con Flow Simulation. Questa parte è stata realizzata per lo stesso tipo di elica tripala, ma prendendo in considerazione due diversi diametri, una di 4:9m e una da 2:5m.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone come obbiettivo l’elaborazione di dati GNSS in modalità cinematica post-processing per il monitoraggio strutturale e, in una seconda fase, lo studio delle precisioni raggiungibili delle soluzioni ottenute utilizzando algoritmi di post-elaborazione del dato. L’oggetto di studio è la torre Garisenda, situata in piazza Ravegnana, accanto alla torre Asinelli, nel centro storico di Bologna, da tempo oggetto di studi e monitoraggi per via della sua inclinazione particolarmente critica. Per lo studio è stato utilizzato un data set di quindici giorni, dal 15/12/2013 al 29/12/2013 compresi. Per l’elaborazione dei dati è stato utilizzato un software open source realizzato da ricercatori del Politecnico di Milano, goGPS. Quest'ultimo, essendo un codice nuovo, è stato necessario testarlo al fine di poter ottenere dei risultati validi. Nella prima fase della tesi si è quindi affrontato l’aspetto della calibrazione dei parametri che forniscono le soluzioni più precise per le finalità di monitoraggio considerando le possibili scelte offerte dal codice goGPS. In particolare sono stati imposti dei movimenti calibrati e si è osservata la soluzione al variare dei parametri selezionati scegliendo poi quella migliore, ossia il miglior compromesso tra la capacità di individuare i movimenti e il rumore della serie. Nella seconda fase, allo scopo di poter migliorare le precisioni delle soluzioni si sono valutati metodi di correzione delle soluzioni basati sull'uso di filtri sequenziali e sono state condotte analisi sull'incremento di precisione derivante dall'applicazione di tali correzioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo elaborato viene descritto il funzionamento dei Beacon. Essi rappresentano un congegno che sfrutta la tecnologia Bluetooth 4.0, la quale, rispetto alle precedenti, si differenzia per alcune innovazioni apportate. Il loro utilizzo originario era rivolto al mondo del Mobile Advertising, ovvero l’invio di messaggi ad hoc agli utenti, sulla base di studi mirati a personalizzare un contenuto. Con lo scorrere del tempo invece si sono cercate nuove modalità d'uso in relazione al mondo da cui derivano: L'”Internet of Things” (IoT). Questa espressione descrive l'intento di dare vita agli oggetti. L'obiettivo di fondo è stato quello di delineare uno dei possibili casi d'uso. Nel concreto il sistema si prefigge, sfruttando l’interazione tra gli utenti, di monitorare la posizione in ambienti indoor di oggetti, usando il segnale RSSI dei Beacon ai quali sono associati, fornire l’aggiornamento dell’indirizzo in cui sono situati, visualizzabile sulle mappe Google con cui l’app è collegata, notificare ai proprietari gli eventuali ritrovamenti di uno di essi, rintracciare i dispositivi altrui. Prima di ciò, si è svolta un'analisi inerente le prestazioni che i Beacon sono in grado di offrire, in condizioni normali, prestando attenzione ad alcuni parametri come: frequenza di trasmissione (l’intervallo entro il quale vengono emessi segnali), il periodo di scansione (l’effettivo periodo di attività), più un’altra serie di risultati acquisiti durante l'esecuzione di alcuni esperimenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i documenti web hanno attratto molta attenzione, poiché vengono visti come un nuovo mezzo che porta quello che sono le esperienze ed opinioni di un individuo da una parte all'altra del mondo, raggiungendo quindi persone che mai si incontreranno. Ed è proprio con la proliferazione del Web 2.0 che l’attenzione è stata incentrata sul contenuto generato dagli utenti della rete, i quali hanno a disposizione diverse piattaforme sulle quali condividere i loro pensieri, opinioni o andare a cercarne di altrui, magari per valutare l’acquisto di uno smartphone piuttosto che un altro o se valutare l’opzione di cambiare operatore telefonico, ponderando quali potrebbero essere gli svantaggi o i vantaggi che otterrebbe modificando la sia situazione attuale. Questa grande disponibilità di informazioni è molto preziosa per i singoli individui e le organizzazioni, che devono però scontrarsi con la grande difficoltà di trovare le fonti di tali opinioni, estrapolarle ed esprimerle in un formato standard. Queste operazioni risulterebbero quasi impossibili da eseguire a mano, per questo è nato il bisogno di automatizzare tali procedimenti, e la Sentiment Analysis è la risposta a questi bisogni. Sentiment analysis (o Opinion Mining, come è chiamata a volte) è uno dei tanti campi di studio computazionali che affronta il tema dell’elaborazione del linguaggio naturale orientato all'estrapolazione delle opinioni. Negli ultimi anni si è rilevato essere uno dei nuovi campi di tendenza nel settore dei social media, con una serie di applicazioni nel campo economico, politico e sociale. Questa tesi ha come obiettivo quello di fornire uno sguardo su quello che è lo stato di questo campo di studio, con presentazione di metodi e tecniche e di applicazioni di esse in alcuni studi eseguiti in questi anni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato analizza l'effetto di additivi WMA e ringiovanenti sulle prestazioni finali del conglomerato bituminoso. Vengono percio citati diversi studi per cercare di capire come l'utilizzo del fresato e degli additivi influisca sulle prestazioni del conglomerato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il percorso intrapreso per la scrittura della tesi, si snoda essenzialmente in due fasi e nove capitoli. La prima fase ha avuto come scopo l’analisi dal punto di vista tecnologico dell’evoluzione tecnologica avuta nel campo di realtà aumentata e dispositivi wearable in particolare orientandosi verso una tipologia di interazioni hands-free. Questo ha portato ad una ricognizione sullo stato dell’arte permettendo di attenere una base di conoscenza solida per la costruzione del sistema presentato all’interno del caso di studi. I capitoli successivi, in particolare dal quinto, introducono alla seconda fase ed hanno lo scopo di progettare e realizzare il sistema proposto, partendo da un’attenta analisi delle caratteristiche richieste passando per la prototipazione e successiva definizione delle caratteristiche atte alla valutazione del sistema stesso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo di questa tesi è raccogliere e ordinare le informazioni disponibili sul plagio fra codici sorgente, con particolare attenzione alla classificazione dei tipi di plagio fra codici e all’analisi dei principali tool esistenti per l’individuazione automatica. Dall’ampia letteratura disponibile sull’argomento, emerge che la rivoluzione informatica ha suscitato nel mondo giuridico un profondo dibattito in merito alla definizione del software e agli strumenti di tutela ad esso connessi, perciò ho deciso di dedicare un capitolo anche alla riflessione sul contesto giuridico e normativo, in Italia e nel mondo. Poiché non esiste una bacchetta magica per combattere il plagio, è realistico pensare che utilizzare diverse tecniche fra loro complementari possa dare risultati migliori; alcuni approcci innovativi in tal senso, derivanti principalmente da ricerche effettuate nel mondo accademico, sono descritti nel capitolo conclusivo della tesi. Un altro aspetto del problema che mi ha colpito è la questione etica connessa al plagio. Molti studiosi universitari hanno realizzato sondaggi all’interno della comunità accademica per testare il grado di sensibilità al problema del plagio e proposto diverse soluzioni volte non solo a combattere il plagio ma anche a prevenirlo, puntando sullo sviluppo di una maggiore consapevolezza del problema negli accademici (sia studenti che docenti). Anche in ambito commerciale non mancano tentativi di sfuggire alla piaga del plagio, considerato a tutti gli effetti una forma di pirateria informatica. Alcuni di questi studi, i cui risultati offrono interessanti spunti di riflessione per il futuro, sono riportati nel capitolo dedicato alle conclusioni.