999 resultados para funzioni a variazione limitata ricolorazione di una immagine minimo di funzionali
Resumo:
La tesi tratta il progetto di una piattaforma di simulazione per modulazioni back-scatter UWB su un sistema a microcontrollore PIC. Il sistema utilizza uno switch a UWB per eseguire la modulazione, modificando le condizioni di carico d'antenna; il software implementa la modulazione attraverso la variazione del segnale di controllo dello switch e si interfaccia con l'utente attraverso l'uso di una periferica USB, permettendo la modifica runtime della configurazione. Si interfaccia inoltre con strumenti esterni attraverso segnali di sincronizzazione.
Resumo:
Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.
Resumo:
I rivelatori a stato solido per raggi X hanno applicazioni in diversi ambiti, in particolare sono ampiamente utilizzati in ambito medico, in ambito industriale e come dispositivi per la sicurezza. Essendo molto diffusi nella nostra quotidianità si è sempre alla ricerca di nuovi materiali e di nuove tecniche di fabbricazione in grado di ridurne i costi di produzione. Le ricerche attuali sono incentrate sullo studio di nuovi materiali sensibili ai raggi X, l'attenzione è particolarmente diretta ai semiconduttori organici. Questi materiali risultano molto interessanti in quanto sono solubili in molti solventi, tale caratteristica permette lo sviluppo di nuove tecniche di fabbricazione a basso costo per rivelatori di grandi aree. Una delle tecniche di maggiore interesse è la stampa a inchiostro su substrati flessibili e trasparenti. In questa tesi si analizzeranno le proprietà elettriche, in particolare la variazione del segnale di corrente in seguito all'irraggiamento da raggi X, di alcuni campioni costituiti da TIPS-pentacene. Ci si soffermerà in particolare sui metodi con cui tali cristalli sono stati deposti quali inkjet e drop-cast.
Resumo:
Il BTA (benzotriazolo), largamente impiegato nei protettivi per metalli utilizzati commercialmente, in particolare per la conservazione dei beni culturali, presenta problematiche riguardo il progressivo impoverimento di quest'ultimo legato alla sua volatilità, con conseguente perdita di efficacia antiossidante del film e rischi per la salute e per l'ambiente, data la tossicità del composto. Lo scopo di questo lavoro è stato di mettere a punto un polimero per il coating ecofriendly (PLA, polimero proveniente da materie prime rinnovabili) ed efficiente (polimero funzionalizzato con BTA, il quale essendo legato chimicamente alla catena di polimero, è maggiormente trattenuto all'interno del materiale) come valida alternativa a quelli reperibili commercialmente. In questo lavoro di tesi è stato sintetizzato un derivato funzionalizzato del benzotriazolo, molto usato per la conservazione dei beni culturali, in modo da essere utilizzato come iniziatore di polimerizzazione ROP di rac-lattide. In questo modo sono stati messi a punto, modulandone il peso molecolare attraverso la variazione della quantità di iniziatore, alcuni polimeri di poli-acido lattico con una molecola di benzotriazolo legata alla estremità carbossilica di ogni catena, legame che ne limita molto la fuoriuscita dal film. In seguito è stata testata l'efficacia di questi polimeri come alternativa a quelli utilizzati commercialmente nel campo della conservazione dei beni culturali, applicando uno strato di essi su dei provini di bronzo e sottoponendoli a diversi processi di invecchiamento, confrontando il loro comportamento con quello di un prodotto commerciale preso a paragone e con quello di PLA privo di funzionalizzazioni additivato di benzotriazolo. Particolare attenzione è stata posta, non solo sul tasso di degradazione al quale sono andati in contro, ma, visto l'ambito artistico, anche le modificazioni estetiche che i provini hanno subito dopo l'applicazione e dopo l'invecchiamento servendosi di misure di colore e foto che ne monitorassero i cambiamenti.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.
Resumo:
L’aumento della pressione parziale di anidride carbonica in atmosfera e il conseguente aumento dell’idrolisi di CO2 nell’acqua marina, noto come “acidificazione degli oceani", consiste nella diminuzione del pH e nella riduzione dello stato di saturazione delle acque (Ω) rispetto al carbonato di calcio (CaCO3). Il Golfo di Napoli è caratterizzato da elevati livelli di CO2 dovuti alla presenza di emissioni naturali di gas (vents), è perciò considerato un laboratorio naturale per prevedere gli effetti futuri sugli organismi marini dovuti all’aumento della acidificazione degli oceani. Questo lavoro di tesi valuta, per la prima volta, l’effetto dei vents sugli pteropodi Thecosomata (gasteropodi planctonici). Data la loro necessità di ioni carbonato per produrre la conchiglia, questi sono considerati “organismi sentinella” per i cambiamenti del sistema dei carbonati nell’ambiente marino. Gli pteropodi sono stati campionati e successivamente analizzati in termini di abbondanza specifica, dimensione e stato di degradazione della conchiglia. I principali risultati hanno mostrato che dalle stazioni di controllo alle zone con presenza di emissioni gassose, vi è un gradiente di diminuzione dei livelli di pH e Ωar, nonostante in nessuna stazione siano presenti livelli di sottosaturazione carbonatica. Gli pteropodi diminuiscono in termini di abbondanza e biodiversità presentando una conchiglia con livelli di dissoluzione elevata nelle stazioni adiacenti alle emissioni gassose, mentre lo stato di preservazione della conchiglia aumenta all’aumentare della distanza dalle zone di emissione, suggerendo che la variazione dello stato di saturazione nelle diverse stazioni, influenzi i processi di calcificazione dell’organismo. Gli effetti negativi delle emissione gassose sugli pteropodi potrebbero a lungo termine risultare in uno shift di popolazioni a vantaggio di organismi planctonici non calcificanti.
Resumo:
Analisi fatte su colate attive, mostrano che per loro natura i lenti movimenti della frana, possono essere accelerati e fluidificati durante estesi o intesi periodi di pioggia. Il meccanismo ampiamente proposto che produce questo tipo di comportamento fluido, è rappresentato dall’aumento della pressione dall’acqua nei pori all’interno del corpo di frana, generando così una parziale o completa liquefazione. Questa transizione solido-liquido è il risultato di una drastica riduzione, in termini di rigidezza meccanica nella zona di terreno liquefatto, il quale può essere potenzialmente rilevata dal monitoraggio della variazione nelle velocità delle onde di taglio (Vs), come dimostrato dalla studio effettuato da Mainsant et al. del 2012. Con questo presupposto in mente, è stata condotta una campagna di monitoraggio durata da maggio a settembre 2015, che attraverso la tecnica d’indagine sismica MASW con metodo attivo-passivo, si è misurato, con cadenza bimestrale, la velocità delle onde di taglio superficiali in vari punti del corpo di frana della colata di Montevecchio (Cesena). Al fine di possedere una conoscenza migliore di suddetta frana, è stato condotto uno studio morfoevolutivo preliminare al periodo di monitoraggio, identificando e definendo così i principali aspetti che caratterizzano la frana. Dai risultati ottenuti dal monitoraggio, si evince che il cambiamento reologico nei terreni fini di frana, possono essere osservato attraverso la variazione delle (Vs), identificando una correlazione diretta tra eventi di precipitazione, con conseguente riattivazione della frana e decrescita delle velocità (Vs), tanto più marcato, quanto maggiore è stato lo spostamento registrato. Il lavoro di tesi condotto conferma quanto detto nello studio di Mainsant et al. del 2012, ponendolo come un valido metodo per predire gli eventi franosi tipo colata.
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
La tesi è incentrata sullo studio e sulla progettazione di un dispositivo wireless di feedback tattile per un sistema di ausilio per non vedenti o ipovedenti. Il dispositivo composto da micro motori vibranti avvisa l'utente di imminenti ostacoli nel suo cammino. La rilevazione degli ostacoli è opera del visore, un sistema composto da una videocamera stereo, con elaborazione su FPGA, collegata ad un Odroid-U3. Viene trattato anche lo sviluppo di un'applicazione server, con relativa libreria di funzioni, che permette al visore di comunicare con dispositivi iOS esterni. Quest'ultima parte è avvenuta in collaborazione con il collega Luca Ranalli che si è occupato dell' App client per smartphone e tablet iOS.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Scopo di questa tesi è verificare se, testi di matematica modificati da un punto di vista grafico e senza variazioni a livello di competenze matematiche richieste, possano facilitare i ragazzi con Disturbi Specifici di Apprendimento (DSA). Aspetti non legati alla matematica, come la difficoltà a leggere il testo troppo lungo, a ricordare o sapere il significato di alcune parole, a non avere una immagine di riferimento, bloccano il ragazzo impedendo all’insegnante una corretta valutazione. Viene presentata dapprima una parte teorica sui disturbi e sulle leggi che tutelano i ragazzi, in seguito viene analizzata nel dettaglio la parte sperimentale, riportando un’analisi di quanto emerso da interviste semi-strutturate e questionari posti a ragazzi DSA di diverse associazioni.
Resumo:
Le zone costiere appartengono alle aree con alta densità di popolazione, nonostante queste regioni siano le più vulnerabili al rischio di onde violente da tempesta e alla tracimazione di esse. In aggiunta, a causa del cambiamento climatico e all’innalzamento del livello del mare, si prevede un incremento nel numero e nell’intensità di tempeste violente. Come risultato, un grande quantitativo di acqua può tracimare, ciò porta all’instabilità e all’allagamento dell’eventuale opera atta alla protezione della costa, un disastro per la sicurezza della popolazione e per l’economia della zona. Per risolvere queste problematiche si è scelta una geometria tipica di difesa della costa e si è compiuta un’analisi di sensitività del modello, analizzando se al variare dei parametri caratteristici del muro paraonde e del relativo parapetto, il modello avverte una variazione della portata di tracimazione. Attraverso questo studio si vuole scoprire qual è la configurazione di cresta che da un punto di vista progettuale è il compromesso migliore tra efficacia della riduzione della portata e sollecitazioni accettabili.