369 resultados para spettro risolvente teorema di persson spettro essenziale oscillatori non commutativi
Resumo:
La Digital Volume Correlation (DVC) è una tecnica di misura a tutto campo, non invasiva, che permette di misurare spostamenti e deformazioni all’interno della struttura ossea in esame. Mediante la comparazione d’immagini con provino scarico e con provino carico, ottenute attraverso sistemi di tomografia computerizzata, si può ottenere la mappa degli spostamenti per ogni direzione e la mappa di deformazione per ogni componente di deformazione. L’obiettivo di questo lavoro di tesi è la validazione della DVC, attraverso la determinazione dell’errore sistematico (accuratezza) e dell’errore casuale (precisione), in modo da poter valutare il livello di affidabilità della strumentazione. La valutazione si effettua su provini di vertebre di maiale, aumentate e non, sia a livello d’organo, sia a livello di tessuto. The Digital Volume Correlation (DVC) is a full field and contact less measurement technique that allowed estimating displacement and strain inside bone specimen. Images of the unloaded and loaded specimen were obtained from micro-CT and compared in order to obtain the displacement map and, differentiating, the strain map. The aim of this work is the validation of the approach, estimating the lack of accuracy (systematic error) and the lack of precision (random error) on different kinds of porcine vertebra, augmented and not, analysing the specimen on tissue level and on organ level.
Resumo:
La tesi affronta la classificazione delle superfici compatte e prive di bordo. Successivamente, si vede un'applicazione del teorema di classificazione alle curve algebriche proiettive complesse, non singolari e irriducibili.
Resumo:
Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.
Resumo:
La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.
Resumo:
Si consideri un insieme X non vuoto su cui si costruisce una sigma-algebra F, una trasformazione T dall'insieme X in se stesso F-misurabile si dice che conserva la misura se, preso un elemento della sigma-algebra, la misura della controimmagine di tale elemento è uguale a quella dell'elemento stesso. Con questa nozione si possono costruire vari esempi di applicazioni che conservano la misura, nell'elaborato si presenta la trasformazione di Gauss. Questo tipo di trasformazioni vengono utilizzate nella teoria ergodica dove ha senso considerare il sistema dinamico a tempi discreti T^j x; dove x = T^0 x è un dato iniziale, e studiare come la dinamica dipende dalla condizione iniziale x. Il Teorema Ergodico di Von Neumann afferma che dato uno spazio di Hilbert H su cui si definisce un'isometria U è possibile considerare, per ogni elemento f dello spazio di Hilbert, la media temporale di f che converge ad un elemento dell'autospazio relativo all'autovalore 1 dell'isometria. Il Teorema di Birkhoff invece asserisce che preso uno spazio X sigma-finito ed una trasformazione T non necessariamente invertibile è possibile considerare la media temporale di una funzione f sommabile, questa converge sempre ad una funzione f* misurabile e se la misura di X è finita f* è distribuita come f. In particolare, se la trasformazione T è ergodica si avrà che la media temporale e spaziale coincideranno.
Resumo:
Definizioni e enunciati riguardo al gruppo fondamentale, alle azioni di gruppo, ai rivestimenti, alle varietà topologiche, differenziabili e riemanniane, alle isometrie e ai gruppi discreti di isometrie. Approfondimento riguardo alle superfici connesse, compatte e orientabili con classificazione topologica, definizione di curvatura gaussiana con classificazione delle superfici in base al valore della curvatura, teorema di Killing-Hopf, teorema di uniformizzazione, enunciato del teorema che verrà dimostrato: la sfera è l'unica superficie connessa, compatta e orientabile ellittica, il toro è l'unica piatta, le somme connesse di g tori (g>1) sono iperboliche. Descrizione del piano euclideo con relativa metrica, descrizione delle sue isometrie, teorema di Chasles con dimostrazione, dimostrazione del toro come unica superficie connessa, compatta e orientabile piatta. Descrizione della sfera con relativa metrica, descrizione delle sue isometrie, dimostrazione della semplicità di SO(3), dimostrazione della sfera come unica superficie connessa, compatta e orientabile ellittica. Descrizione di due modelli del piano iperbolico, descrizione delle sue isometrie, dimostrazione del fatto che le somme connesse di g tori (g>1) sono iperboliche. Definizione di gruppo Fuchsiano e di spazio di Teichmuller.
Resumo:
L’Otello di Luigi Lo Cascio è stato concepito nella volontà di mettere in luce come non sia Otello bensì Desdemona la straniera del dramma. Il mio lavoro rileva in primo luogo in che modo l’autore sia riuscito a raggiungere il suo obiettivo utilizzando diversi espedienti: esplicitare la scelta di riportare la vicenda raccontando di un generale bianco, per non suscitare pregiudizi avversi ad una corretta interpretazione; isolare linguisticamente Desdemona, unica parlante italiana in un universo di voci palermitane, per enfatizzare la solitudine della donna che, circondata da soli uomini, non ha possibilità di essere vista e compresa per quello che è, in quanto viene interpretata attraverso immagini stereotipate; inserire un narratore interno che guidi gli spettatori attraverso il ragionamento dell’autore. In secondo luogo, il mio elaborato confronta l’opera di Lo Cascio con quella di Shakespeare dimostrando come già all’interno di quest’ultima fossero presenti tutti gli elementi necessari per dare all’Otello l’interpretazione che ne dà l’autore palermitano: la perfetta integrazione di Otello nella società veneziana, che esclude il comune ricorso alle diverse culture dei coniugi per giustificare il comportamento violento del Moro; la visione idealizzata della figura femminile, che impedisce ai personaggi maschili di vedere la realtà; l’impossibilità di conciliare la donna reale con quella immaginata, vero movente dell’assassinio di Desdemona.
Resumo:
I materiali compositi occupano un posto di particolare rilievo in virtù non solo delle forti caratteristiche innovative da loro possedute, ma anche dalla possibilità di progettare il materiale in base alle specifiche funzionali e strutturali del sistema da realizzare. In questo lavoro di tesi sono stati valutati gli effetti di grafene e ossido di grafene sulle proprietà termo-meccaniche di formulazioni polimeriche commerciali sia di tipo termoplastico che termoindurente. In particolare sono stati valutati i metodi di dispersione delle nanocariche, ottimizzandoli per ciascuna matrice polimerica e successivamente sono stati preparati i provini necessari per la caratterizzazione dei materiali (nano)compositi ottenuti, al fine di valutare l’effetto della presenza delle nanocariche grafeniche.
Resumo:
Il progetto di questa tesi affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale di 15 unità abitative situato nella zona della Bolognina in Via Tibaldi. Le condizioni di vetustà dell’edificato e l’evoluzione economico sociale del quartiere hanno portato negli anni all’insorgere di nuove situazioni di criticità. Si sono riscontrati problemi relativi alle dimensioni degli alloggi (troppo grandi per le esigenze dei nuovi nuclei familiari), ai bassi livelli di comfort interni (rapporti illuminanti non rispettati e dimensioni dei vani non confacenti a normativa), all’accessibilità (vano ascensore inefficiente) e alla bassa efficienza energetica, che produce elevati costi di esercizio. L’analisi degli spazi esterni invece ha evidenziato uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre a una carenza del numero di posti auto necessari agli abitanti dell’isolato. L’obiettivo che si pone la tesi è quello di adeguare l’area alle nuove esigenze dell’utenza e di migliorare gli standard qualitativi dell’edificato, considerando la fattibilità dell’intervento e ipotizzando misure che si pongano in alternativa ad una demolizione completa dell’edificio. Inoltre, le soluzioni proposte sono state studiate in modo da poter essere applicate non solo sul caso studio, ma anche sull’intero isolato, in un’ottica di riqualificazione urbana.Per gli spazi interni, le scelte adottate riguardano la demolizione e ricostruzione puntuali delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate, conformando a normativa i vani degli alloggi, dotandoli di una maggior superficie utile e riducendo la condizione di discomfort luminoso interno. La stessa strategia è stata adottata anche per ridefinire e diversificare il taglio degli alloggi. Infine per migliorare l’accessibilità all’edificio e agli alloggi le soluzioni prevedono l’inserimento un sistema loggiato per rendere raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni, optando per un’azione a scala urbana. La riorganizzazione delle aree è avvenuta attraverso l’inserimento di nuovi percorsi pedonali di collegamento all’edificato e mediante la progettazione e riqualificazione di spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.
Resumo:
Ogni anno, a causa dell’utilizzo di combustibili fossili e della produzione di cemento, vengono rilasciate in atmosfera 35,7 × 109 tonnellate di CO2, il principale dei gas serra. Durante l’ultima Conferenza delle Parti della UNFCCC, tenutasi a Parigi e nota come COP-21, gli Stati membri hanno posto come obiettivo il raggiungimento delle “emissioni zero” entro la seconda metà del XXI secolo. Secondo le previsioni fornite dall’IPCC il raggiungimento di tale obiettivo porterebbe comunque la concentrazione atmosferica di CO2 a 430 – 530 ppm con un conseguente aumento di temperatura di 1.5-2°C. Se non si riuscisse a rispettare questo traguardo potrebbe rendersi necessaria la rimozione forzata di CO2 dall’atmosfera. Negli ultimi anni è stata riconosciuta ad alcuni ecosistemi, tra cui le praterie di fanerogame marine, la capacità naturale di sottrarre elevate quantità di CO2, e rimuoverle dall’ambiente sotto forma di carbonio organico, chiamato “Blue Carbon”, per lunghi periodi di tempo. Il principale obiettivo di questo lavoro è quello di stimare i quantitativi di “Blue Carbon” contenuto all’interno dei sedimenti e nella biomassa vegetale di una prateria di Posidonia oceanica. I risultati hanno permesso di quantificare, al variare della densità dei fasci fogliari della pianta, la percentuale di carbonio organico contenuta nei primi 40 cm di sedimento e quello contenuto nella biomassa vegetale. Queste percentuali sono state utilizzate per stimare i quantitativi totali di carbonio all’interno di una ristretta area della prateria, quella attorno allo scoglio di Molarotto. Per quest’area il contenuto in carbonio organico stimato per i sedimenti è risultato essere compreso tra 104,4 e 122,7 t C ha-1, mentre quello contenuto nelle fronde tra 3,65 e 6,31 t C ha-1. Utilizzando il software QGIS è stato infine possibile stimare la quantità totale (fronde + sedimento) di carbonio contenuto all’interno della prateria in generale. Questo è risultato essere di 716 tonnellate.
Resumo:
Questa tesi si propone di verificare l'esistenza di coordinate isoterme su una superficie. Le coordinate isoterme danno localmente una mappa conforme da una varietà riemanniana bidimensionale al piano Euclideo. Se la superficie è orientabile, allora si può dare un atlante di carte isoterme, cioè le cui coordinate associate siano isoterme. Queste coordinate esistono a patto che vengano soddisfatte certe condizioni. Il risultato nelle classi di Holder è dovuto a Korn e Lichtensten. Chern ha notevolmente semplificato la loro dimostrazione.
Resumo:
In questa tesi si mostrano alcune applicazioni degli integrali ellittici nella meccanica Hamiltoniana, allo scopo di risolvere i sistemi integrabili. Vengono descritte le funzioni ellittiche, in particolare la funzione ellittica di Weierstrass, ed elenchiamo i tipi di integrali ellittici costruendoli dalle funzioni di Weierstrass. Dopo aver considerato le basi della meccanica Hamiltoniana ed il teorema di Arnold Liouville, studiamo un esempio preso dal libro di Moser-Integrable Hamiltonian Systems and Spectral Theory, dove si prendono in considerazione i sistemi integrabili lungo la geodetica di un'ellissoide, e il sistema di Von Neumann. In particolare vediamo che nel caso n=2 abbiamo un integrale ellittico.
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.