176 resultados para curva di Jordan vertici teorema di Schönflies
Resumo:
The purpose of this dissertation is to prove that the Dirichlet problem in a bounded domain is uniquely solvable for elliptic equations in divergence form. The proof can be achieved by Hilbert space methods based on generalized or weak solutions. Existence and uniqueness of a generalized solution for the Dirichlet problem follow from the Fredholm alternative and weak maximum principle.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Scopo della tesi è di estendere un celebre teorema di Montel, sulle famiglie normali di funzioni olomorfe, all'ambiente sub-ellittico delle famiglie di soluzioni u dell'equazione Lu=0, dove L appartiene ad un'ampia classe di operatori differenziali alle derivate parziali reali del secondo ordine in forma di divergenza, comprendente i sub-Laplaciani sui gruppi di Carnot, i Laplaciani sub-ellittici su arbitrari gruppi di Lie, oltre all'operatore di Laplace-Beltrami su varietà di Riemann. A questo scopo, forniremo una versione sub-ellittica di un altro notevole risultato, dovuto a Koebe, che caratterizza le funzioni armoniche come punti fissi di opportuni operatori integrali di media con nuclei non banali. Sarà fornito anche un adeguato sostituto della formula integrale di Cauchy.
Resumo:
In questa tesi viene presa in esame una classe di materiali semiconduttori caratterizzata dalla presenza di una struttura nanoporosa in superficie. L’analisi è stata svolta tramite surface photovoltage spectroscopy (SPS) su cinque film di Ge realizzati in condizioni diverse, sfruttando due tecniche di impiantazione ionica (MBE e Sputtering). Valutando il valore in energia e l’ampiezza del picco della curva SPV che si ottiene, sarà possibile studiare come vengono modificate alcune proprietà elettriche e strutturali del Ge al variare della geometria e della disposizione dei nanopori. I risultati ottenuti mettono in risalto le potenzialità di questo nuovo tipo di materiale per realizzare e migliorare applicazioni come sensori, catalizzatori e pannelli fotovoltaici.
Resumo:
Alcuni ricercatori del Dipartimento di Fisica e Astronomia di Bologna hanno di recente ottenuto una curva che descrive l’andamento della mobilità in funzione della temperatura a seguito di misure effettuate su un cristallo organico di rubicene che mostra un’interdipendenza delle due variabili molto particolare. Il mio compito è stato cercare di far luce sulle peculiarità di questa curva. Per fare questo mi sono servita di due articoli, frutto di un attuale studio condotto da tre ricercatori dell’Università di Napoli, che ho riportato nel secondo e nel terzo capitolo, che hanno cercato di spiegare il comportamento atipico della mobilità in funzione della temperatura in cristalli organici semiconduttori.
Resumo:
E stata risolta l'equazione d'onda per la radiazione elettromagnetica ed è stata trovata l'espressione (in forma di integrale) per un impulso monocromatico di frequenza angolare fissata e per un impulso di durata finita, imponendo che nello spazione dei vettori d'onda (k_x,k_y) l'impulso sia rappresentato da una funzione Gaussiana nella forma exp[-w_0^2(k_x^2+k_y^2)/4], dove w_0 rappresenta il waist trasverso. Per avere un'espressione analitica dell'impulso monocromatico e dell'impulso di durata finita si sono rese necessarie rispettivamente l'approssimazione parassiale e un'approssimazione di "fattorizzazione". Sono state analizzate, sia analiticamente sia numericamente, i limiti entro i quali queste approssimazioni possono essere considerate accurate. Le soluzioni esatte e le soluzioni approssimate sono state confrontate graficamente. Nel capitolo finale è stato analizzato il moto di una particella carica che interagisce con un pacchetto d'onda unidimensionale, mettendo in luce la fondamentale differenza tra il moto di questa particella nel vuoto e il moto della stessa in un plasma carico. Infatti, in accordo con il teorema di Lawson-Woodward, nel vuoto la particella non può essere accelerata per interazione diretta con il pacchetto d'onda, mentre nel plasma, a seguito del passaggio del pacchetto, la particella può aver acquistato energia.
Resumo:
Questo lavoro si pone come obiettivo l'approfondimento della natura e delle proprietà dei polinomi espressi mediante la base di Bernstein. Introdotti originariamente all'inizio del '900 per risolvere il problema di approssimare una funzione continua su un intervallo chiuso e limitato della retta reale (Teorema di Stone-Weierstrass), essi hanno riscosso grande successo solo a partire dagli anni '60 quando furono applicati alla computer-grafica per costruire le cosiddette curve di Bezier. Queste, ereditando le loro proprietà geometriche da quelle analitiche dei polinomi di Bernstein, risultano intuitive e facilmente modellabili da un software interattivo e sono alla base di tutti i più moderni disegni curvilinei: dal design industriale, ai sistemi CAD, dallo standard SVG alla rappresentazione di font di caratteri.
Resumo:
In questa tesi ci si occuperà di presentare alcuni aspetti salienti della teoria spettrale per gli operatori limitati negli spazi di Hilbert. Nel primo capitolo verranno presentate alcune nozioni fondamentali di analisi funzionale, necessarie per lo studio degli operatori. Il secondo capitolo si occupa invece di analizzare la teoria spettrale per operatori compatti. In particolare, verrà presentato il Teorema Spettrale per Operatori Normali Compatti e il Teorema dell'Alternativa di Fredholm. In seguito verrà applicata tale teoria alla risolubilità del problema di Dirichlet. Nel terzo capitolo verrà esteso quanto ottenuto per gli operatori compatti ad operatori limitati autoaggiunti e per gli operatori normali limitati, passando attraverso le famiglie spettrali.
Resumo:
Presentazione dei risultati più importanti e famosi che riguardano la congettura di Collatz. Analisi empiriche e nuovi risultati riguardanti la congettura e le sue generalizzazioni.
Resumo:
La tesi è finalizzata ad una preliminare fase di sperimentazione di un algoritmo che, a partire da dati di acustica, sia in grado di classificare le specie di pesce presenti in cale mono e plurispecifiche. I dati sono stati acquisiti nella fascia costiera della Sicilia meridionale, durante alcune campagne di ricerca effettuate tra il 2002 e il 2011, dall’IAMC – CNR di Capo Granitola. Sono stati registrati i valori delle variabili ambientali e biotiche tramite metodologia acustica e della composizione dei banchi di pesci catturati tramite cale sperimentali: acciughe, sardine, suri, altre specie pelagiche e pesci demersali. La metodologia proposta per la classificazione dei segnali acustici nasce dalla fusione di logica fuzzy e teorema di Bayes, per dar luogo ad un approccio modellistico consistente in un compilatore naïve Bayes operante in ambiente fuzzy. Nella fattispecie si è proceduto alla fase di training del classificatore, mediante un learning sample di percentuali delle categorie ittiche sopra menzionate, e ai dati di alcune delle osservazioni acustiche, biotiche e abiotiche, rilevate dall’echosurvey sugli stessi banchi. La validazione del classificatore è stata effettuata sul test set, ossia sui dati che non erano stati scelti per la fase di training. Per ciascuna cala, sono stati infine tracciati dei grafici di dispersione/correlazione dei gruppi ittici e le percentuali simulate. Come misura di corrispondenza dei dati sono stati considerati i valori di regressione R2 tra le percentuali reali e quelle calcolate dal classificatore fuzzy naïve Bayes. Questi, risultando molto alti (0,9134-0,99667), validavano il risultato del classificatore che discriminava con accuratezza le ecotracce provenienti dai banchi. L’applicabilità del classificatore va comunque testata e verificata oltre i limiti imposti da un lavoro di tesi; in particolare la fase di test va riferita a specie diverse, a condizioni ambientali al contorno differenti da quelle riscontrate e all’utilizzo di learning sample meno estesi.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.
Resumo:
Risolvere il problema isoperimetrico in R^2 significa determinare la figura piana avente area maggiore tra tutte le figure aventi ugual perimetro. In questo lavoro trattiamo la risoluzione del problema isoperimetrico in R^2 proposta da Hurwitz, il quale, basandosi esclusivamente sulle proprietà analitiche delle serie di Fourier, è riuscito a dimostrare che la circonferenza è l'unica curva piana, semplice, chiusa e rettificabile con l'area massima avendo fissato il perimetro.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
Nuova frontiera per la procedura di test tailoring è la sintesi di profili vibratori il più reali possibili, nei quali venga tenuto conto della possibile presenza di eventi transitori e della non scontata ripetibilità delle vibrazioni nel tempo. Negli ultimi anni si è rivolto un crescente interesse nel "controllo del Kurtosis", finalizzato alla realizzazione di profili vibratori aventi distribuzione di probabilità non-Gaussiana. Durante l’indagine sperimentale oggetto di questa trattazione si sono portati a rottura per fatica alcuni componenti sottoposti, in generale, a tre differenti tipi di sollecitazione: stazionaria Gaussiana, stazionaria non-Gaussiana e non stazionaria non-Gaussiana. Il componente testato è costituito da un provino cilindrico montato a sbalzo e dotato di una massa concentrata all’estremità libera e di una gola vicina all’incastro, nella quale avviene la rottura per fatica. Durante l’indagine sperimentale si è monitorata la risposta in termini di accelerazione all’estremità libera del provino e di spostamento relativo a monte e a valle della gola, essendo quest’ultimo ritenuto proporzionale alle tensioni che portano a rottura il componente. Per ogni prova sono stati confrontati il Kurtosis e altri parametri statistici dell’eccitazione e della risposta. I risultati ottenuti mostrano che solo le sollecitazioni non stazionarie non-Gaussiane forniscono una risposta con distribuzione di probabilità non-Gaussiana. Per gli altri profili vale invece il Teorema del Limite Centrale. Tale per cui i picchi presenti nell'eccitazione non vengono trasmessi alla risposta. Sono stati inoltre monitorati i tempi di rottura di ogni componente. L’indagine sperimentale è stata effettuata con l'obiettivo di indagare sulle caratteristiche che deve possedere l’eccitazione affinchè sia significativa per le strategie alla base del "controllo del Kurtosis".