1000 resultados para indirizzo :: 846 :: Curriculum: Sistemi elettronici per applicazioni biomediche
Resumo:
Studio del riprofilarsi di due sezioni di spiaggia (protetta e non) secondo diverse condizioni meteo-marine (scenario presente e scenario a breve termine) nella località di Cesenatico. Tale lavoro è stato svolto tramite il software XBeach, riscontrando la sua validità e gettando solide basi per lavori futuri in altre località.
Resumo:
La tesi ha avuto ad oggetto l'evoluzione dell’onda di piena del fiume Fiora nella mattinata del 12/11/2012, a monte dello sbarramento di Vulci (Enel S.p.a.), la quale ha determinato il superamento della quota di massimo invaso dell’impianto e ha messo in evidenza come le equazioni descrittive, presenti all’interno del Foglio di Condizione e Manutenzione dell’Impianto (F.C.E.M), non siano rappresentative della reale capacità di scarico della diga. Sulle base di queste osservazioni è stato adottato un modello matematico sfruttando il codice di calcolo HEC-RAS per la valutazione della massima portata scaricabile dagli scarichi dell’impianto in occasione di eventi di piena particolarmente intensi. Dallo studio si è ricavato che la portata massima scaricata della diga durante l’evento suddetto è risultata circa 1430 m3/s, mentre la massima portata affluita all’impianto è risultata circa 1450 m3/s, valore potenzialmente sfruttabile per una revisione della sicurezza idraulica dello sbarramento.
Resumo:
Introduzione al metodo del Compressed Sensing per il campionamento di segnali sparsi.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.
Resumo:
In questo elaborato viene studiato il comportamento asintotico di un polimero diretto in ambiente aleatorio (o disordine) al variare della temperatura e della dimensione in cui lo si considera. Si dimostra che quando d=1,2 il polimero si comporta in modo super diffusivo, ovvero la catena polimerica dispone i suoi monomeri lontano dall'origine per raggiungere zone in cui l'ambiente risulta maggiormente favorevole; al contrario, quando d è > o = 3, si verifica una transizione tra una fase diffusiva(valori alti della temperatura), in cui le traiettorie della catena si comportano, su larga scala, come un moto browniano, ed una fase super diffusiva(basse temperature).
Resumo:
Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.
Resumo:
Sensors are devices that have shown widespread use, from the detection of gas molecules to the tracking of chemical signals in biological cells. Single walled carbon nanotube (SWCNT) and graphene based electrodes have demonstrated to be an excellent material for the development of electrochemical biosensors as they display remarkable electronic properties and the ability to act as individual nanoelectrodes, display an excellent low-dimensional charge carrier transport, and promote surface electrocatalysis. The present work aims at the preparation and investigation of electrochemically modified SWCNT and graphene-based electrodes for applications in the field of biosensors. We initially studied SWCNT films and focused on their topography and surface composition, electrical and optical properties. Parallel to SWCNTs, graphene films were investigated. Higher resistance values were obtained in comparison with nanotubes films. The electrochemical surface modification of both electrodes was investigated following two routes (i) the electrografting of aryl diazonium salts, and (ii) the electrophylic addition of 1, 3-benzodithiolylium tetrafluoroborate (BDYT). Both the qualitative and quantitative characteristics of the modified electrode surfaces were studied such as the degree of functionalization and their surface composition. The combination of Raman, X-ray photoelectron spectroscopy, atomic force microscopy, electrochemistry and other techniques, has demonstrated that selected precursors could be covalently anchored to the nanotubes and graphene-based electrode surfaces through novel carbon-carbon formation.
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
In questa tesi si analizza il divario territoriale degli apprendimenti in matematica emergente dalle rilevazioni e dagli studi effettuati dall'OCSE PISA e dall'INVALSI. Si propone una sperimentazione effettuata nelle scuole per approfondire eventuali aspetti didattici.
Resumo:
La tesi propone una panoramica sulla storia dell'insegnamento della probabilità, per poi passare al ruolo dell'intuizione e dell'istruzione. La parte centrale espone un progetto sulla probabilità condizionata svolto in una classe seconda in una scuola secondaria di secondo grado.
Resumo:
Questa tesi si concentra sul numero zero e ne studia e analizza le situazioni di difficoltà per gli studenti nel caso della divisione.
Resumo:
L’oggetto dell'elaborato riguarda l’insegnamento attuale dell’analisi matematica nella scuola secondaria superiore. Si sono esaminate le difficoltà incontrate dagli studenti ed elaborate riflessioni di carattere didattico per operare un insegnamento efficace. Nel primo capitolo sono state messe a punto alcune riflessioni sui fini dell’educazione. Il secondo capitolo si è concentrato sulle difficoltà legate all'insegnamento dell’analisi matematica, esaminando diverse situazioni didattiche verificatesi nel corso del tirocinio svolto nei mesi di Ottobre e Novembre 2013 presso l'Istituto Tecnico Tecnologico di Cesena. Il terzo capitolo opera un confronto fra i diversi approcci all'insegnamento della matematica in generale e dell'analisi in particolare che si presentano nelle diverse scuole secondarie, in particolare nei Licei e negli Istituti Tecnici. Nel quarto capitolo ci si è occupati del livello scolastico successivo, analizzando le differenze che intercorrono tra la scuola secondaria superiore e l’università per quanto riguarda gli stadi dello sviluppo mentale degli studenti, le materie, i metodi di studio e gli obiettivi di apprendimento.
Resumo:
I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.
Resumo:
Lo studio ha consentito la valutazione delle potenzialità di utilizzo di informazioni telerilevate da satellite, al fine di ottenere un DEM utilizzabile per simulazioni numerico - idrauliche. In particolare è stato utilizzato il DEM a scala globale fornito dalla missione SRTM (Shuttle Radar Topography Mission), per acquisire la geometria del tratto medio inferiore del fiume Po. Ottenuto l'andamento plano altimetrico del corso d'acqua sono state effettuate simulazioni in condizioni di piena eccezionale e deflusso medio allo scopo di valutarne affidabilità e precisione. Vengono infine proposti tre metodi di modifica della geometria, fornita da SRTM, in modo tale da migliorare la rappresentazione dell'alveo di magra ed incrementarne le performance.