313 resultados para Di-2-pyridylketone Schiff-base
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto della deplezione dietetica della lisina, in concomitanza o meno della supplementazione di due diverse tipologie di integratori alimentari, sui principali tratti qualitativi e sulle proprietà tecnologiche della carne di petto di pollo. Pertanto, 1620 polli maschi sono stati allevati e suddivisi in 4 gruppi sperimentali in funzione dei trattamenti dietetici che prevedevano la deplezione del contenuto di lisina nella dieta con l’aggiunta o meno di 2 diversi tipi di integratori nella fase starter. Al termine della prova (50gg), 12 muscoli pettorali/gruppo sono stati destinati all’analisi del pH, colore, drip e cooking loss e sforzo di taglio. I risultati ottenuti hanno evidenziato che la deplezione della lisina insieme all’aggiunta dell’integratore 2 (contenente un precursore della creatina) ha determinato una significativa modificazione del colore della carne in termini di luminosità e indice di rosso (a*) e un aumento del cooking loss rispetto al gruppo di controllo. Tuttavia, le modificazioni ottenute sono di lieve entità e non determinano un eventuale peggioramento qualitativo della carne. Infatti, la deplezione della lisina non ha fatto rilevare alcuna modificazione significativa nei confronti dei parametri qualitativi e tecnologici presi in esame. Considerata la limitata disponibilità di studi presenti in letteratura riguardo la restrizione dietetica della quota di lisina, questo studio suggerisce come la sua deplezione nel primo periodo di vita dell’animale possa rappresentare una strategia efficace per ridurre i costi di alimentazione e migliorare la sostenibilità del sistema di produzione senza influenzare negativamente la qualità della carne. Infatti, è noto che la riduzione della concentrazione di alcuni componenti della dieta possa determinare una minore escrezione di azoto e fosforo, migliorando così la sostenibilità ambientale del sistema produttivo.
Resumo:
Su ogni superficie cubica non singolare nello spazio proiettivo complesso giacciono esattamente 27 rette distinte. Questo è il primo risultato non banale sulle superfici algebriche di grado maggiore di 2 che ha dato inizio alla moderna geometria algebrica e che per la prima volta fu intuito nel 1849 da Arthur Cayley. In questa tesi verrà dimostrata la precedente affermazione generale prendendo inizialmente in considerazione la superficie cubica di Fermat per cui verranno ricavate esplicitamente le 27 rette. Inoltre si giungerà alla classificazione della Fermat a partire dal risultato ottenuto dal matematico svizzero L.Schläfli che classificherà le superfici cubiche lisce definite sul campo dei reali in base al loro numero di rette reali e piani tritangenti reali.
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
Il cambiamento climatico è una delle sfide più ardue che il nostro pianeta abbia mai dovuto affrontare. Negli ultimi anni si sta rendendo sempre più evidente la necessità di un profondo cambiamento ideologico e sociale in ogni campo. La Green Chemistry mira a capeggiare questo cambiamento proponendo dei principi guida in modo da indirizzare la chimica verso tale traguardo. Possibili strumenti attuativi di questa visione sono senza alcun dubbio le bioraffinerie. Raffinerie appunto, nate però per processare materie prime provenienti da fonti rinnovabili, le biomasse. Esistono diversi tipi di biomasse, dalle quali possono essere ricavate differenti molecole piattaforma. La biomassa lignocellulosica, per esempio, viene sfruttata per ottenere perlopiù composti furanici. Tra questi di particolare interesse è la furfurale(FUR), un’aldeide particolarmente reattiva dalla quale possono essere ottenute numerose sostanze chimiche ad alto valore aggiunto. Tra queste si trova il γ-valerolattone(GVL), estere ciclico a cinque atomi di carbonio, promettente prodotto preliminare nella sintesi di combustibili a base biologica e prodotti chimici di base. Il processo che porta dalla FUR al GVL comprende diversi step di reazione, alcuni catalizzati da acidità di Lewis, altri da acidità di Brønsted. Gli step di riduzione possono essere eseguiti mediante una reazione di Catalytic Transfer Hydrogenation (CTH) utilizzando isopropanolo piuttosto che H2 gassoso. La scelta del solvente/riducente assieme all’utilizzo di un sistema catalitico eterogeneo permettono la realizzazione della reazione con un basso impatto ambientale. Per quanto riguarda la scelta del sistema catalitico, particolarmente interessante è la combinazione TiO2-ZrO2. Lo scopo di questa tesi è stato quello di sintetizzare e valutare le performance di sistemi catalitici a base di ossidi misti Ti/Zr/O con diverse composizioni nella conversione della FUR a GVL in un reattore in fase liquida.
Resumo:
I sensori indossabili rappresentano una frontiera della ricerca scientifica e, allo stesso tempo, a livello commerciale sono un nuovo mercato emergente. La possibilità di studiare diversi parametri fisiologici con dispositivi versatili e di dimensioni ridotte è importante per raggiungere una comprensione più profonda dei diversi fenomeni che avvengono nel nostro corpo. In maniera simile, la composizione dell’essudato di una ferita è finemente legata all’evoluzione del processo di guarigione, che comporta diversi meccanismi di rigenerazione del tessuto connettivo e dell’epitelio. Grazie ai dispositivi indossabili, si apre la possibilità di monitorare i componenti chiave di questi processi. I wearable devices costituiscono quindi sia uno strumento diagnostico, che uno strumento clinico per l’identificazione e la valutazione di strategie terapeutiche più efficienti. Il mio lavoro di tirocinio si è incentrato sulla fabbricazione, caratterizzazione e sperimentazione delle performance di transistor elettrochimici a base organica (OECT) tessili per la misurazione dei livelli di pH ed acido urico. L’obbiettivo del gruppo di ricerca è quello di realizzare un cerotto intelligente che abbia due diversi elementi sensibili, uno per l’acido urico e l’altro per la concentrazione idrogenionica. Per il raggiungimento di tale scopo, si è sfruttato uno dei semiconduttori organici più utilizzati e studiati nell’ultimo periodo, il PEDOT, ovvero il poli(3,4-etilen-diossi-tiofene), che risulta anche uno dei materiali principalmente impiegati nella ricerca sui sensori tessili.
Resumo:
L’inquinamento olfattivo, negli ultimi anni, ha acquisito rilevanza a livello istituzionale e varie Regioni italiane hanno adottato Regolamenti e Linee Guida in materia. Queste, individuano gli studi di impatto olfattivo come strumenti per valutare la necessità di interventi correttivi, a seguito di simulazioni effettuate con modelli di dispersione atmosferica. In studi di primo livello uno dei modelli utilizzabili è quello gaussiano, con cui vengono ricercate le concentrazioni di inquinante massime possibili nelle situazioni di simulazione considerate, a scopo di screening. In questo elaborato gli output di queste simulazioni saranno confrontati e correlati con quelli ottenuti da un modello di dispersione non stazionario di tipo lagrangiano a particelle, utilizzato invece negli studi di impatto olfattivo di secondo livello. Le variabili studiate sono state la concentrazione odorigena di picco, confrontata con il 98° percentile delle concentrazioni di picco orario su base annua, e la relativa distanza dalla sorgente. Il setting sperimentale presume una singola sorgente puntiforme, di cui è stata variata l’altezza della ciminiera. Per tutte le altezze emissive considerate, ogni run di simulazione è stato effettuato con entrambi i modelli. Le operazioni di regressione eseguite sugli output così ottenuti, hanno evidenziato delle buone funzioni di correlazione per entrambe le variabili considerate, valutate attraverso il parametro R2. Questo permette un’analisi di impatto olfattivo di primo livello molto più accurata, poiché, utilizzando all’atto pratico un modello di tipo gaussiano, si possono stimare da esso i risultati che si sarebbero ottenuti con l’applicazione di quello lagrangiano, più complesso e in linea con quanto richiesto dalla normativa. Si ottengono, quindi, valutazioni di impatto più aderenti al territorio analizzato senza, tuttavia, la necessità di utenti con competenze tecniche specifiche e di strumenti informatici con potenze di calcolo molto elevate.
Resumo:
Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.
Resumo:
La tesi descrive in modo analitico la formazione del temporale e i suoi stadi di vita, i tipi di temporale suddivisi in base alla struttura e le nubi accessorie, particolari formazioni nuvolose che appartengono al temporale e alla sua evoluzione.
Resumo:
The concern of this work is to present the characterization of blue emitting GaN-based LED structures by means of Atomic Force Microscopy. Here we show a comparison among the samples with different dislocation densities, in order to understand how the dislocations can affect the surface morphology. First of all we have described the current state of art of the LEDs in the present market. Thereafterwards we have mentioned in detail about the growth technique of LED structures and the methodology of the characterization employed in our thesis. Finally, we have presented the details of the results obtained on our samples studied, followed by discussions and conclusions. L'obiettivo di questa tesi é quello di presentare la caratterizzazione mediante Microscopia a Forza Atomica di strutture di LED a emissione di luce blu a base di nitruro di gallio (GaN). Viene presentato un confronto tra campioni con differente densità di dislocazioni, allo scopo di comprendere in che modo la presenza di dislocazioni influisce sulla morfologia della superficie. Innanzitutto, viene descritto il presente stato dell'arte dei LED. Successivamente, sono forniti i dettagli riguardanti la tecnica di crescita delle strutture dei LED e il metodo di caratterizzazione adottato. Infine, vengono mostrati e discussi i risultati ottenuti dallo studio dei campioni, seguiti dalle conclusioni.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
In questo elaborato viene presentato un nuovo modello di costo per le matrici per estrusione basato su un approccio feature-based. Nel particolare si è cercato di definire il costo di questi prodotti sulla base delle loro caratteristiche geometriche e tecnologiche.
Resumo:
L'obiettivo di questa tesi, in base all'analisi di atti di convegni e workshop, lettura di libri e articoli pubblicati in siti Web, in materie di gamification, è per prima cosa, spiegare il concetto della gamification, partendo da alcune definizioni date da ricercatori e progettisti di videogiochi, cercando di capire sia i fattori positivi, sia i fattori negativi. Si vogliono elencare e spiegare gli elementi di gioco che compongono la gamification, con particolare attenzione alle meccaniche, come punti, distintivi, premi e dinamiche, come competenza, espressione di sè, status sociale, elementi collegati tra di loro, analizzando quali meccaniche originano certe dinamiche. Si cercherà anche di analizzare la gamification sotto gli aspetti psicologici e di User Experience che innescano le motivazioni intrinseche ed estrinseche delle persone, le prime azionate dalle meccaniche, le seconde azionate dalle dinamiche della gamification e l'importanza di ciò nella progettazione di applicazioni gamificate. Si vogliono esaminare ed illustrare in generale, progetti i quali adottano tecniche di gamification, che spaziano dal fitness fino ad attività di marketing per capire i benefici riscontrati. Si vuole inoltre scoprire se ci sono dei validi presupposti per sviluppare App gamificate per smarphone, che sfruttino alcune specifiche tecniche dei dispositivi mobili come, connettività, il GPS ed i sensori come ad esempio, l'accelerometro ed altre tecnologie come il lettore NFC, QR-code. Infine, come caso di studio, saranno testate tre app per smarphone, Foursquare, tramite la quale un utente può consultare e lasciare consigli sui luoghi nelle sue vicinanze, Swarm, tramite la quale un utente oltre ad effettuare il check-in in un luogo, può vedere se ci sono amici nelle vicinanze e Waze, tramite la quale un utente può inviare ed apprendere informazioni relative al traffico.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Costruzione di un modello numerico base per la simulazione del processo Rotary Friction Welding.