969 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
I materiali a base di carbone vengono utilizzati in catalisi come supporti per fasi attive, ma anche direttamente come catalizzatori essi stessi, grazie soprattutto alla versatilità delle loro proprietà di massa e superficiali. L’attività catalitica dei carboni è influenzata soprattutto dalla natura, dalla concentrazione e dall’accessibilità dei siti attivi tra cui i più comuni sono: gruppi funzionali superficiali, difetti, ed eteroatomi inseriti nella struttura. Per ridurre i problemi diffusionali legati alla microporosità dei carboni attivi sono in corso numerosi studi sulla sintesi di carboni mesoporosi, i quali possono fornire benefici unici come alta area superficiale ed elevato volume dei pori, uniti a buone proprietà chimiche e stabilità meccanica. Nel corso di questa tesi, sono state svolte diverse attività finalizzate principalmente alla preparazione e alla caratterizzazione di carboni mesoporosi da utilizzare in ambito catalitico. La sintesi di carboni porosi è stata eseguita con la metodologia soft-templating, un metodo basato sulla replica di un agente templante polimerico che si organizza in micelle attorno alle quali avviene la reticolazione di un precursore polimerico termoindurente. Precursore e templante vengono pirolizzati ad elevate temperature per rimuovere in un primo momento l’agente templante e successivamente carbonizzare il precursore. Sono state scelte due metodologie di sintesi riportate in letteratura con lo scopo di sintetizzare due tipologie di carboni. La sintesi Mayes è stata utilizzata per sintetizzare carboni mesoporosi classici, mentre la sintesi Hao è stata utilizzata per ottenere carboni porosi contenenti azoto. Le due sintesi sono state ottimizzate variando diversi parametri, tra cui il tempo di reticolazione (curing) e la temperatura di pirolisi. Sui diversi carboni ottenuti sono stati effettuati alcuni trattamenti superficiali di ossidazione al fine di modificarne la funzionalità. In particolare si sono utilizzati agenti ossidanti come HNO3, H2O2 e N2O.
Resumo:
L’impiego della storia della matematica è auspicato oggi più di ieri dalle attuali Indicazioni nazionali per i Licei ed è supportato da numerosi quadri teorici,che traghettano la storia della matematica dalle rive dell’essere artefatto all’essere conoscenza. In particolare nel secondo paragrafo del primo capitolo di questa tesi vengono presentati gli ostacoli epistemologici di Guy Brousseau, l’approccio socio-culturale di Louis Radford, l’approccio ”voci ed echi” di Paolo Boero ed infine lo spaesamento di Barbin. Nel terzo paragrafo vengono analizzati quei contributi che mirano a rendere più operativo l’entusiasmo suscitato dall’uso della storia nell’insegnamento della matematica. Quindi il primo capitolo ha l’obiettivo di porre le basi teoriche all’uso della storia nella trasmissione del sapere matematico; pertanto ho deciso di mettere a punto una sperimentazione da condurre in una classe seconda di Liceo Scientifico avente come oggetto una fonte storica. Come argomento è stato scelto l’irrazionalità, introdotto in tale trattazione nel secondo capitolo: nel primo paragrafo viene trattato il problema della nascita dell’incommensurabilità, mentre nel secondo vengono analizzate le numerose dimostrazioni che sono state proposte nel corso dei secoli in merito all’incommensurabilità di lato e diagonale di un quadrato partendo da Aristotele ed Euclide, passando per Alessandro d’Aforisia e Platone, attraversando le dimostrazioni geometriche e quelle che sfruttano il metodo dell’anthyphairesis, per giungere ad una dimostrazione moderna che non presta il fianco alle critiche aristoteliche proposte da Salomon Ofman. Nel terzo capitolo viene presentata la sperimentazione che ho condotto, anteponendo a ciò i criteri adottati per la scelta del brano, ossia le lezione di Geometria tratta dal Menone di Platone ed un breve tributo alla figura di Platone e alla sua opera da cui è tratto il brano scelto come fonte storica. Tale capitolo è articolato in tre paragrafi: nel terzo vengono descritte dettagliatamente tutte le attività condotte in classe e vengono presentati i lavori e le risposte degli studenti. Infine, nel quarto capitolo, vengono esaminati dettagliatamente i risultati dei ragazzi alla luce dei quadri teorici precedentemente introdotti e vengono messe in luce le peculiarità dell’attività dell’argomentare e le doti e mancanze relative a ciò degli studenti.
Resumo:
Questa tesi descrive lo sviluppo di una nuova metodologia che prevede l’utilizzo degli orto-chinoni metidi (o-QMs) in reazioni organocatalitiche asimmetriche. A causa della loro elevata instabilità e reattività, gli o-QMs sono stati impiegati in trasformazioni di sintesi asimmetrica solo di recente. Il metodo sviluppato prevede l’utilizzo di catalizzatori bifunzionali in grado di promuovere la generazione in situ degli intermedi reattivi a partire dai rispettivi 2-solfonilalchil fenoli, tramite eliminazione di acido solfinico. L’utilizzo di condizioni blandamente basiche sia per generare gli o-QMs che per l’attivazione dei partner nucleofili, risulta innovativo e permette non solo di ovviare all’intrinseca instabilità di questi intermedi, ma anche di impiegarli efficacemente in reazioni organocatalitiche con una varietà di nucleofili, come, ad esempio, l’acido di Meldrum, il malononitrile e vari composti 1,3 dicarbonilici. Le reazioni catalitiche portano alla formazione di 3,4-diidrocumarine, 4H-cromeni e xantenoni enantioarricchiti. Alcuni di questi composti sono dei precursori sintetici di composti naturali o sintetici biologicamente attivi e per avvalorare questa metodologia sono state proposte le sintesi formali di tre composti di interesse biologico: la (R)-tolterodina (il principio attivo del farmaco antimuscarinico Detrol®), (S)-4-metossidalbergione (allergene della Dalbergia Nigra) and SB-209670 / SB-217242 (due potenti antagonisti dell’endotelina).
Resumo:
Il presente elaborato si pone l’obiettivo di far luce su un fenomeno ancora oggetto di pregiudizi e stereotipi: il bilinguismo. Nel primo capitolo si delineano i contorni del bilinguismo e le varie classificazioni per definire il soggetto bilingue, partendo dai vari gradi di competenza, passando poi all'acquisizione del linguaggio nel bilingue precoce e giungendo ad elencare i vantaggi e presentare i luoghi comuni che ancora demonizzano tale fenomeno. Nel secondo capitolo dell’elaborato ci si concentra invece sulla scelta consapevole dei genitori nell’iniziare i figli a un’educazione bilingue sin dalla nascita, indicando i fattori che influenzano il percorso bilingue e portando esempi concreti grazie alla collaborazione di una famiglia italo-francese che ha accettato di sottoporsi a intervista. Nel terzo capitolo viene preso in esame il bilinguismo precoce all'interno di famiglie immigrate, analizzando i fattori che spesso ostacolano lo sviluppo della L2 nel bambino a contatto con due culture. In particolare, attraverso il film Le Gone du Chaâba, si riflette sulla figura del bambino come ponte tra due culture e strumento d’integrazione per la famiglia. Infine, nel quarto ed ultimo capitolo, si mette in luce la percezione sociale del bilinguismo in una società apparentemente governata dal monolinguismo. Si osservano dunque alcune politiche volte ad educare al plurilinguismo e viene presentato un metodo didattico di apprendimento linguistico precoce in un nido d’infanzia locale.
Resumo:
In questa tesi sono stati descritti i principali metodi numerici per la risoluzione di sistemi non lineari. Tali metodi sono stati analizzati sia dal punto di vista teorico (analisi di convergenza locale) che pratico (algoritmo e implementazione).
Resumo:
Questa tesi esamina la progettazione e lo sviluppo di un'applicazione mobile Android che è in grado di gestire l'attività sportiva di un utente. L'applicazione offre numerose funzionalità, che permettono all'utente di eseguire allenamenti per il fitness e allenamenti per la corsa, tenendo sempre sotto controllo i risultati ottenuti e tutte le informazioni necessarie. Oltre ad eseguire allenamenti l'utente può crearne di propri e modificarli a suo piacimento, in più nell'App è inserito lo shop dove l'utilizzatore può comprare allenamenti messi a disposizione direttamente da FitBody. Gli aspetti visti sopra saranno descritti attraverso un'analisi del problema e un'analisi sulla progettazione architetturale. In particolare verranno sottolineati aspetti riguardanti l'interazione tra utenti e l'utilizzo di API che permetteranno all'utilizzatore di condividere le proprie esperienze sul social network Facebook e di avere un'esperienza completa con l'app. In questo scritto si parlerà anche della comunicazione tra applicazione e server, che avviene grazie a chiamate HTTP con metodo POST. Attraverso queste chiamate l'applicazione leggerà e scriverà informazioni sul database online, 'hostato' sulla piattaforma Altervista. L'applicazione web, di cui sarà data solamente un'infarinatura, è stata sviluppata utilizzando il linguaggio di programmazione PHP. Ogni 'response' inviata dal server al client è composta da uno o più oggetti JSON.
Resumo:
L'elaborato illustra una possibile soluzione al problema della correzione del movimento respiratorio in dati ecografici di perfusione epatica per la valutazione della pressione portale. La tecnica proposta si basa sul segnale monogenico e sull’informazione di fase dell’immagine. Inizialmente sono stati presentati gli strumenti atti alla valutazione della vascolaritá epatica, con una particolare focalizzazione sulle tecniche non invasive per diagnosticare l’ipertensione portale. Tra di esse l’ecografia con mezzo di contrasto si impone come uno dei metodi più efficaci e soprattutto meno invasivi. In seguito è stato presentato un recente studio secondo cui, tramite l’elaborazione delle curve di enhancement ottenute dalla sequenza ecografica, è possibile stimare dei parametri correlati al valore di pressione portale. Tuttavia, durante l’esecuzione dell’esame ecografico, i movimenti respiratori del paziente non sempre consentono una corretta valutazione di tali parametri. In questa tesi è stata indagata la possibilità di compensare questi artefatti mediante l'applicazione di una metodo di tracking basato sul vincolo di conservazione della fase dell'immagine. Il metodo è stato testato qualitativamente su sequenze di immagini ecografiche acquisite all’ospedale di Barcellona e all’ospedale Sant’Orsola di Bologna, con risultati promettenti.
Resumo:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
Resumo:
Nella prima parte dell'elaborato vengono introdotti dei concetti basilari del sistema ferroviario necessari al proseguo della trattazione: i sistemi di circolazione utilizzati in Italia, le sezioni di blocco, i sistemi di sicurezza e di controllo della marcia, il sistema ERTMS a livello europeo. Nella seconda parte, dopo aver introdotto il concetto di capacità, vengono analizzati nel dettaglio e confrontati, in termini di capacità teorica, i sistemi basati sul blocco fisso e sul blocco mobile. Vengono quindi proposti i metodi utilizzati per il calcolo della capacità reale, prestando particolare attenzione al metodo dei coefficienti di ritardo specifico D e di stabilità X. Da quest' ultimo e con l'introduzione dei livelli di servizio, viene analizzato il rapporto che lega la capacità con la qualità della circolazione. Infine viene proposto un confronto tra le linee convenzionali e le linee AV/AC in Italia, evidenziando il rapporto tra le caratteristiche di velocità e di capacità.
Resumo:
Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.
Resumo:
Il presente lavoro di tesi si pone nell'ambito dell'analisi dati attraverso un metodo (QDanet_PRO), elaborato dal Prof. Remondini in collaborazine coi Dott. Levi e Malagoli, basato sull'analisi discriminate a coppie e sulla Teoria dei Network, che ha come obiettivo la classificazione di dati contenuti in dataset dove il numero di campioni è molto ridotto rispetto al numero di variabili. Attraverso questo studio si vogliono identificare delle signature, ovvero un'insieme ridotto di variabili che siano in grado di classificare correttamente i campioni in base al comportamento delle variabili stesse. L'elaborazione dei diversi dataset avviene attraverso diverse fasi; si comincia con una un'analisi discriminante a coppie per identificare le performance di ogni coppia di variabili per poi passare alla ricerca delle coppie più performanti attraverso un processo che combina la Teoria dei Network con la Cross Validation. Una volta ottenuta la signature si conclude l'elaborazione con una validazione per avere un'analisi quantitativa del successo o meno del metodo.
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
L'elaborato tratta le transizioni di fase nel modello di Ising, usato per descrivere i sistemi magnetici. Tramite l'argomento di Landau viene introdotto il problema della dimensionalità per l'esistenza di una fase ferromagnetica. Con il sistema di un gas forzato su reticolo viene presentato il carattere universale dei fenomeni critici per mezzo degli esponenti critici. Viene poi risolto in modo esatto il modello unidimensionale, che non prevede una fase ferromagnetica. Per sistemi a dimensionali maggiore viene introdotto il metodo dell'approssimazione di campo medio. Viene infine determinato il valore della temperatura critica per reticoli planari quadrati e di questi viene mostrata la soluzione esatta di Lars Onsager.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.