470 resultados para Carathéodory teorema estensione misura
Resumo:
Questo elaborato si propone di approfondire lo studio dei campi finiti, in modo particolare soffermandosi sull’esistenza di una base normale per un campo finito, in quanto l'utilizzo di una tale base ha notevoli applicazioni in ambito crittografico. Vengono trattati i seguenti argomenti: elementi di base della teoria dei campi finiti, funzione traccia e funzione norma, basi duali, basi normali. Vengono date due dimostrazioni del Teorema della Base Normale, la seconda delle quali fa uso dei polinomi linearizzati ed è in realtà un po' più generale, in quanto si riferisce ai q-moduli.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.
Resumo:
La tesi tratta della formulazione dell'assioma della scelta fatta da Zermelo e di alcune sue forme equivalenti. Inoltre si parlerà della sua storia, delle critiche che gli sono state mosse e degli importanti teoremi che seguono direttamente dall'assioma. Viene anche trattato il paradosso di Hausdorff che introduce il problema della misura e il paradosso di Banach-Tarscki.
Resumo:
La tesi si prefigge di definire la molteplicità dell’intersezione tra due curve algebriche piane. La trattazione sarà sviluppata in termini algebrici, per mezzo dello studio degli anelli locali. In seguito, saranno discusse alcune proprietà e sarà proposto qualche esempio di calcolo. Nel terzo capitolo, l’interesse volgerà all’intersezione tra una varietà e un’ipersuperficie di uno spazio proiettivo n-dimensionale. Verrà definita un’ulteriore di molteplicità dell’intersezione, che costituirà una generalizzazione di quella menzionata nei primi due capitoli. A partire da questa definizione, sarà possibile enunciare una versione estesa del Teorema di Bezout. L’ultimo capitolo focalizza l’attenzione nuovamente sulle curve piane, con l’intento di studiarne la topologia in un intorno di un punto singolare. Si introduce, in particolare, l’importante nozione di link di un punto singolare.
Resumo:
In questa tesi cercherò di analizzare le funzioni di Sobolev su R}^{n}, seguendo le trattazioni Measure Theory and Fine Properties of Functions di L.C. Evans e R.F.Gariepy e l'elaborato Functional Analysis, Sobolev Spaces and Partial Differential Equations di H. Brezis. Le funzioni di Sobolev si caratterizzano per essere funzioni con le derivate prime deboli appartenenti a qualche spazio L^{p}. I vari spazi di Sobolev hanno buone proprietà di completezza e compattezza e conseguentemente sono spesso i giusti spazi per le applicazioni di analisi funzionale. Ora, come vedremo, per definizione, l'integrazione per parti è valida per le funzioni di Sobolev. È, invece, meno ovvio che altre regole di calcolo siano allo stesso modo valide. Così, ho inteso chiarire questa questione di carattere generale, con particolare attenzione alle proprietà puntuali delle funzioni di Sobolev. Abbiamo suddiviso il lavoro svolto in cinque capitoli. Il capitolo 1 contiene le definizioni di base necessarie per la trattazione svolta; nel secondo capitolo sono stati derivati vari modi di approssimazione delle funzioni di Sobolev con funzioni lisce e sono state fornite alcune regole di calcolo per tali funzioni. Il capitolo 3 darà un' interpretazione dei valori al bordo delle funzioni di Sobolev utilizzando l'operatore Traccia, mentre il capitolo 4 discute l' estensione su tutto R^{n} di tali funzioni. Proveremo infine le principali disuguaglianze di Sobolev nel Capitolo 5.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.
Resumo:
Movimentazione, da parte di un braccio robotico, di un recipiente riempito con un liquido nello spazio tridimensionale. Sistema di trasferimento liquidi basato sul KUKA youBot, piattaforma open source per la ricerca scientifica. Braccio robotico a 5 gradi di libertà con struttura ortho-parallel e cinematica risolvibile in forma chiusa tramite l’applicazione di Pieper. Studio dei modi di vibrare dei liquidi e modellizzazione dei fenomeni ondosi tramite modello equivalente di tipo pendolo. Analisi delle metodologie di controllo di tipo feed-forward volte a sopprimere la risposta oscillatoria di un tipico sistema vibratorio. Filtraggio delle traiettorie di riferimento da imporre allo youBot, in modo tale da sopprimere le vibrazioni in uscita della massa d’acqua movimentata. Analisi e comparazione delle metodologie di input shaping e filtro esponenziale. Validazione sperimentale delle metodologie proposte implementandole sul manipolatore youBot. Misura dell’entità del moto ondoso basata su dati acquisiti tramite camera RGBD ASUS Xtion PRO LIVE. Algoritmo di visione per l’elaborazione offline dei dati acquisiti, con output l’andamento dell’angolo di oscillazione del piano interpolante la superficie del liquido movimentato.
Resumo:
Le tradizionali tecniche usate per l’analisi della struttura e della composizione comprendono, tra le altre, microscopia ottica, microscopia elettronica, diffrazione a raggi X e analisi chimica. In generale però, la maggior parte di questi metodi richiede una procedura di preparazione che può modificare la struttura o la composizione del campione. È necessario infatti che il campione non subisca alterazioni particolari durante la fase di preparazioni in modo tale che le condizioni fisiologiche rimangano il più possibile simili a quelle che si hanno in situ. Una tecnica che ultimamente sta diventando sempre più significativa in ambito biomedico è la spettroscopia Raman. Innanzitutto con l’analisi Raman la quantità di materiale da studiare per ottenere buoni risultati è minima, visto che possono essere studiati campioni che vanno dai micro ai nanogrammi; inoltre, possono essere analizzati campioni umidi e a pressione atmosferica, condizioni che rispecchiano verosimilmente quelle fisiologiche. Questo tipo di analisi è inoltre vantaggiosa dato che riesce a identificare diversi composti chimici, ha un’elevata risoluzione spaziale (0.6-1µm), riuscendo quindi ad analizzare campioni molto piccoli, ha tempi di misura brevi e può essere utilizzato più volte sullo stesso campione senza che quest’ultimo venga danneggiato. Nel seguente elaborato si sono riportati i risultati di diversi studi condotti sull’idrossiapatite naturale/biologica e sintetica ottenuti mediante questa tecnica spettroscopica. In particolare, ci si è soffermati sulla diversa concentrazione di OH- presente nell’apatite stechiometrica rispetto a quella biologica e di come tale concentrazione sia influenzata dalla presenza o meno dello ione carbonato. Si riportano inoltre le analisi condotte su campioni sintetici e biologici per comprendere se le molecole di acqua si trovino all’interno della struttura del minerale (acqua di bulk) o se siano solamente assorbite in superficie.
Resumo:
La tesi ha avuto come obiettivo l’estensione dell’incarnazione biochimica del simulatore Alchemist, cioè di quella parte del simulatore dedicata alla modellazione di ambienti multicellulari. L'estensione si è focalizzata sullo sviluppo delle necessarie astrazioni per modellare il movimento cellulare, un fenomeno che riveste una grande importanza in molti eventi di rilevanza biologica e fisiologica. A tal scopo si è definito, e implementato sulla piattaforma ALCHEMIST, un modello di: 1) giunzione cellulare 2) estensione spaziale della cellula 3) ambiente cellulare 4) interazione meccanica. Sono infatti questi quattro elementi chiave necessari per la riproduzione il più fedele possibile dei fenomeni biologici associati al movimento cellulare. Al fine di validare il modello e l'implementazione si sono infine sviluppati alcuni test, tra cui, nei principali, viene riprodotto il fenomeno della chemiotassi e l'inseguimento neutrofilo-batterio.
Resumo:
Villa Adriana presenta un ampio spettro di possibili casi studio finalizzati ad approfondire il tema della documentazione e della catalogazione dei Beni Culturali. La diffusione della rete Internet ha oggi determinato la necessità di gestire le informazioni in forma distribuita. Nel settore dei B.C., per anni le informazioni relative agli stessi venivano riassunte in schede, “beni schedati” per l’appunto, in modo da facilitarne la consultabilità e l’organizzazione manuale. Nel primo periodo della informatizzazione il processo è stato perfettamente uguale: schede, unità di misura e campi rimasero gli stessi, ma digitalizzati. È chiaro che oggi un sistema del genere appare poco appropriato rispetto alle proprietà dei sistemi digitali, per consentirne lo studio e/o la fruizione. Quindi è nata l’esigenza di migliorare la gestione dei dati raccolti e aggiornare la scheda tenendo conto dell’esperienza sia di coloro che lavorano nel campo della catalogazione dei beni culturali sia di coloro che operano nelle Soprintendenze e nelle Università. Tutto ciò ha spinto il Ministero per i Beni e le Attività Culturali a pensare una soluzione al fine di creare un processo evolutivo dei cittadini. L’“innovazione tecnologica”, oltre ad essere un’implementazione di una nuova regola organizzativa, miglio9ra il supporto alla salvaguardia dei beni artistici e archeologici, mettendo a disposizione dei tecnici delle soprintendenze e delle forze dell’ordine strumenti che semplificano l’attività nella tutela del patrimonio culturale. È innegabile il fatto che oggi i nuovi “media” siano il fulcro di un “movimento” verso i modelli rinnovati di comunicazione della conoscenza che offrono le forme più rapide e immediate dell’offerta culturale. Il sistema informativo permette di incrociare le informazioni di carattere tecnico con i dati relativi alla conoscenza del bene e alla sua storia, mettendoli in relazione alla specifica area a cui si riferiscono.
Resumo:
Lo scopo di questa tesi è quello di misurare ed analizzare completamente le caratteristiche spaziali della distribuzione del suono nel Teatro all’Antica di Sabbioneta, patrimonio UNESCO. Dopo una breve storia sulla città e sul teatro, sono state svolte misurazioni acustiche in diversi punti di misura. Vengono analizzati e calcolati i principali parametri acustici quali tempo di riverbero, indice di robustezza, early decay time, indici di definizione e chiarezza, indici di intelligibilità, parametri spaziali. Viene poi utilizzato un array microfonico che permette di ottenere una completa informazione sulla distribuzione spaziale del suono in un teatro, mappando varie direzioni di arrivo delle riflessioni.