621 resultados para vento di barriera, numero di Froude, modelli meteorologici, BOLAM, MOLOCH, climatologia
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.
Resumo:
Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
L'elaborato tratta della progettazione di un sistema di alimentazione wireless risonante per i nodi sensori, strumenti fondamentali per il controllo delle strutture(Structural Health Monitoring). Esso si concentra sulla realizzazione di un convertitore flyback risonante (con circuito di snubber incluso per il main switch) in grado di fornire una tensione di 5 Volt in uscita a fronte di una corrente media massima sul carico di 800mA data una tensione di 12 volt in ingresso. Dopo aver introdotto il concetto di Wireless Power Transfer (WPT) e i principi fisici su cui esso poggia (induzione elettromagnetica e risonanza elettromagnetica), si presentano i modelli circuitali più utilizzati in questo ambito. Una volta illustrate le conoscenze allo stato dell'arte dell'accoppiamento induttivo risonante, si analizza il comportamento del modello scelto, al fine di evidenziare i vantaggi dell'utilizzo del circuito alla frequenza di risonanza. Sono state effettuate simulazioni con il simulatore LTspice come controprova. Si passa quindi a dimensionare i vari elementi del circuito a fronte delle specifiche stabilite. Grazie ai risultati ottenuti, si procede alla stesura del Bill Of Materials. La tesi si conclude presentando i possibili campi di ricerca e sviluppo del sistema di alimentazione.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
La tecnica di Diffusion Weighted Imaging (DWI) si basa sullo studio del moto diffusivo delle molecole d’acqua nei tessuti biologici ed è in grado di fornire informazioni sulla struttura dei tessuti e sulla presenza di eventuali alterazioni patologiche. Il più recente sviluppo della DWI è rappresentato dal Diffusion Tensor Imaging (DTI), tecnica che permette di determinare non solo l’entità, ma anche le direzioni principali della diffusione. Negli ultimi anni, grazie ai progressi nella tecnica di risonanza magnetica, l’imaging di diffusione è stato anche applicato ad altri distretti anatomici tra cui quello renale, per sfruttarne le potenzialità diagnostiche. Tuttavia, pochi sono ancora gli studi relativi all’applicazione delle metodiche di diffusione per la valutazione della malattia policistica renale autosomica dominante (ADPKD). ADPKD è una delle malattie ereditarie più comuni ed è la principale causa genetica di insufficienza renale dell’adulto. La caratteristica principale consiste nella formazione di cisti in entrambi i reni, che progressivamente aumentano in numero e dimensioni fino a causare la perdita della funzionalità renale nella metà circa dei pazienti. Ad oggi non sono disponibili terapie capaci di arrestare o rallentare l’evoluzione di ADPKD; è possibile controllare le complicanze per evitare che costituiscano componenti peggiorative. Il lavoro di tesi nasce dalla volontà di indagare se la tecnica dell’imaging di diffusione possa essere utile per fornire informazioni sullo stato della malattia e sul suo grado di avanzamento. L’analisi di studio è concentrata sul calcolo del coefficiente di diffusione apparente (ADC), derivato dalle immagini DWI e valutato nella regione della midollare. L’obiettivo di questo lavoro è verificare se tale valore di ADC sia in grado di caratterizzare la malattia policistica renale e possa essere utilizzato in ambito clinico-diagnostico come indicatore prognostico nella progressione di questa patologia.
Resumo:
In questa tesi viene elaborata un'applicazione ultra-low power (ULP) basata su microcontrollore, per implementare la procedura di controllo di diversi circuiti di un tag RFID. Il tag preso in considerazione è pensato per lavorare in assenza di batteria, da cui la necessita' di ridurre i consumi di potenza. La sua attivazione deve essere inoltre comandata attraverso un'architettura Wake up Radio (WuR), in cui un segnale di controllo radio indirizza e attiva il circuito. Nello specifico, la rete di decodifica dell'indirizzo è stata realizzata mediante il modulo di comunicazione seriale del microcontrollore. Nel Capitolo 1 verrà introdotto il tema dell'Energy Harvesting. Nel Capitolo 2 verrà illustrata l'architettura del sistema nel suo complesso. Nel Capitolo 3 verrà spiegato dettagliatamente il funzionamento del microcontrollore scelto. Il Capitolo 4 sarà dedicato al firmware implementato per svolgere le operazioni fondamentali imputate al micro per i compiti di controllo. Verrà inoltre introdotto il codice VHDL sviluppato per emulare l'output del modulo WuR mediante un FPGA della famiglia Cyclone II. Nel Capitolo 5 verrà presentata una stima dei consumi del microcontrollore in funzione dei parametri di configurazione del sistema. Verrà inoltre effettuato un confronto con un altro microcontrollore che in alcune condizioni potrebbe rappresentare iun'alternativa valida di progetto. Nei Capitoli 6 e 7 saranno descritti possibili sviluppi futuri e conclusioni del progetto. Le specifiche di progetto rilevanti della tesi sono: 1. minimo consumo energetico possibile del microcontrollore ULP 2. elevata rapidità di risposta per la ricezione dei tag, per garantire la ricezione di un numero maggiore possibile di indirizzi (almeno 20 letture al secondo), in un range di tempo limitato 3. generazione di un segnale PWM a 100KHz di frequenza di commutazione con duty cycle 50% su cui basare una modulazione in back-scattering.
Resumo:
La tesi si occupa dell'uso di più tecniche fotogrammetriche e di strumenti GIS nel recupero digitale e nell'integrazione di una molteplicità di dati storici, opportunamente georeferenziati, inerenti l'area del Centro Cadore, ai fini anche della valorizzazione turistico-culturale del territorio. Un ampio spazio viene dato alla caratterizzazione del territorio e delle fonti - cartografiche, fotografiche e testuali - che sono state recuperate ed organizzate in archivio. Le applicazioni fotogrammetriche comprendono la generazione di ortofoto digitali a scala territoriale da immagini storiche e modelli 3D close-range ottenuti con tecniche SfM.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.
Resumo:
Questo lavoro di tesi si inserisce all’interno del progetto di ricerca LAUPER in cui sono coinvolte le sezioni INFN di Ferrara e Bologna. Il progetto LAUPER, acronimo per LAUe-PEak Radiotherapy, ha come scopo lo studio di fattibilità di un prototipo di lente di Laue in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV per possibili applicazioni in ambito radioterapico. Sfruttando fasci di raggi X, caratterizzati da energie inferiori a quelle che contraddistinguono le usuali tecniche radioterapiche e focalizzati mediante una lente di Laue, si cerca di ottimizzare il rapporto fra la dose sul target tumorale e la dose sui tessuti sani. Questa tesi, nello specifico, descrive i dati ottenuti dai primi test effettuati con due prototipi di lente di Laue, caratterizzati da un differente numero di cristalli e da una loro diversa disposizione sulla lente. Dall’analisi delle misure effettuate si evince come effettivamente i prototipi siano in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV. Tuttavia uno dei due prototipi ha evidenziato delle problematiche relative alla diffrazione causata dalla struttura di supporto dei cristalli, che non è stato possibile schermare adeguatamente. I prossimi passi del progetto LAUPER consistono quindi nella risoluzione di questo problema con la realizzazione di nuovi prototipi, caratterizzati da un diverso tipo di supporto. Con quest’ultimi verranno anche effettuati test dosimetrici in modo da costruire le curve di dose in funzione della profondità in materiali tessuto-equivalenti.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.