1000 resultados para superfici di Riemann compatte divisori teorema di Riemann-Roch immersioni nello spazio proiettivo
Resumo:
I materiali compositi più diffusi sono quelli a matrice polimerica (PMC, Polymer Matrix Composites) con fibre di rinforzo, largamente utilizzati per la loro capacità di conciliare ottima resistenza meccanica con elevata leggerezza. Nel presente elaborato di tesi sono state studiate le caratteristiche meccaniche di materiali compositi a matrice resinosa, epossidica, rinforzati con fibre di carbonio chopped, ovvero fibre spezzate e disposte in modo del tutto casuale all’interno della matrice, mediante analisi microstrutturale e prove di trazione. Viene descritto il processo di produzione delle piastre di materiale composito ottenuto per SMC (Sheet Moulding Compound) da cui sono stati ricavati i provini. Lo studio a livello microstrutturale è stato possibile grazie all’inglobamento nella resina di alcune sezioni dei provini, le cui superfici sono state esaminate al microscopio acquisendo una quantità di immagini tale da permettere la ricostruzione della superficie stessa tramite software ed il calcolo percentuale delle porosità tramite SolidWorks. La caratterizzazione meccanica è stata eseguita utilizzando la macchina per le prove di trazione presente nell’hangar della sede di Forlì della Scuola di Ingegneria e Architettura dell’Università di Bologna: la preparazione dei provini è basata sull’applicazione di tabs di alluminio. I provini in materiale composito sono stati forniti in quattro differenti tipologie riguardanti la pressione a cui sono stati prodotti: 25, 50, 100 e 150 bar. Lo scopo dell’elaborato è stabilire la pressione ottimale di produzione dei provini, a cui il materiale composito mostra le migliori proprietà meccaniche, in particolare la più alta resistenza a carico di trazione. Le prove sono state condotte su provini a tre diverse lunghezze, per diversificare le modalità di stress meccanico. I risultati sono stati poi analizzati per stabilire quale valore di pressione di processo conferisce le migliori caratteristiche meccaniche al materiale.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
L’obiettivo di questa tesi di Laurea è stato di analizzare gli scambi termici radiativi che si verificano all’interno di una stanza; per eseguire questa analisi si sono calcolati i fattori di vista Fij tra diversi punti (i) definiti tramite una griglia regolare posta all’interno della stanza e le superfici che vi si affacciano (j); tale griglia prevede 25 punti posti a 3 altezze diverse, per un totale di 75 punti. Dalla conoscenza delle temperature superficiali si sono ottenuti i valori di temperatura media radiante nei punti della griglia, e successivamente i valori degli indici di benessere PMV (voto medio previsto) e PPD (percentuale prevista di insoddisfatti), fissando i parametri necessari. Il calcolo dei fattori di vista è stato eseguito tramite il software TRISCO®, dopo averne confrontato i risultati forniti con COMSOL® e dopo aver valutato la correttezza di alcune approssimazioni. Il modello utilizzato nelle simulazioni è costituito da una stanza di 5x5x2,8 m, in cui sono stati fatti variare il numero e la posizione di alcuni elementi caratterizzanti, come finestre e radiatori, oltre a tipologia di elementi scaldanti e posizione e numero di pareti esterne, tramite la variazione delle temperature. In seguito si è analizzata la potenza scambiata per irraggiamento dagli elementi scaldanti, per poter riconoscere gli elementi responsabili dei maggiori contributi; nel caso di pavimento o soffitto radiante si è divisa tale superficie in diverse porzioni per riconoscere le zone della superficie radiante più influenti. I risultati ottenuti mostrano che la presenza di radiatori, finestre o pareti esterne, introducendo elementi di disturbo asimmetrici, forniscono andamenti disuniformi di temperatura e PMV, con l’omogeneità che migliora allontanandosi da tali elementi; impianti a pavimento o soffitto radiante producono risultati decisamente migliori, sia per quanto riguarda i valori assoluti di temperatura e PMV, che nell’omogeneità della relativa distribuzione.
Resumo:
la tesi tratta alcuni risultati e applicazioni relative alla teoria delle azioni di gruppi su insiemi finiti, come l'equazione delle classi e il teorema di Cauchy. Infine illustra l'uso di tali risultati nella rappresentazione tramite permutazioni.
Resumo:
Le regioni HII sono nubi di idrogeno ionizzato da stelle di recente formazione, massicce e calde. Tali stelle, spesso raggruppate in ammassi, emettono copiosamente fotoni di lunghezza d’onda λ ≤ 912 Å, capaci di ionizzare quasi totalmente il gas che le circonda, composto prevalentemente da idrogeno, ma in cui sono presenti anche elementi ionizzati più pesanti, come He, O, N, C e Ne. Le dimensioni tipiche di queste regioni vanno da 10 a 100 pc, con densità dell’ordine di 10 cm−3. Queste caratteristiche le collocano all’interno del WIM (Warm Ionized Medium), che, insieme con HIM (Hot Ionized Medium), WNM (Warm Neutral Medium) ed CNM (Cold Neutral Medium), costituisce la varietà di fasi in cui si presenta il mezzo interstellare (ISM, InterStellar Medium). Il tema che ci prestiamo ad affrontare è molto vasto e per comprendere a fondo i processi che determinano le caratteristiche delle regioni HII sarebbero necessarie molte altre pagine; lo scopo che questo testo si propone di raggiungere, senza alcuna pretesa di completezza, è dunque quello di presentare l’argomento, approfondendone ed evidenziandone alcuni particolari tratti. Prima di tutto descriveremo le regioni HII in generale, con brevi indicazioni in merito alla loro formazione e struttura. A seguire ci concentreremo sulla descrizione dei processi che determinano gli spettri osservati: inizialmente mostreremo quali siano i processi fisici che generano l’emissione nel continuo, concentrandoci poi su quello più importante, la Bremmstrahlung. Affronteremo poi una breve digressione riguardo al processo di ricombinazione ione-elettrone nei plasmi astrofisici ed alle regole di selezione nelle transizioni elettroniche, concetti necessari per comprendere ciò che segue, cioè la presenza di righe in emissione negli spettri delle regioni foto-ionizzate. Infine ci soffermeremo sulle regioni HII Ultra-Compatte (UC HII Region), oggetto di numerosi recenti studi.
Resumo:
La presente tesi è suddivisa in due parti: nella prima parte illustriamo le definizioni e i relativi risultati della teoria delle tabelle di Young, introdotte per la prima volta nel 1900 da Alfred Young; mentre, nella seconda parte, diamo la nozione di numeri Euleriani e di Polinomi Euleriani. Nel primo capitolo abbiamo introdotto i concetti di diagramma di Young e di tabelle di Young standard. Inoltre, abbiamo fornito la formula degli uncini per contare le tabelle di Young della stessa forma. Il primo capitolo è focalizzato sul teorema di Robinson-Schensted, che stabilisce una corrispondenza biunivoca tra le permutazioni di Sn e le coppie di tabelle di Young standard della stessa forma. Ne deriva un'importante conseguenza che consiste nel poter trovare in modo efficiente la massima sottosequenza crescente di una permutazione. Una volta definite le operazioni di evacuazione e "le jeu de taquin" relative alle tabelle di Young, illustriamo una serie di risultati riferibili alla corrispondenza biunivoca R-S che variano in base alla permutazione che prendiamo in considerazione. In particolare, enunciamo il teorema di simmetria di M.P.Schüztenberger, che dimostriamo attraverso la costruzione geometrica di Viennot. Nel secondo capitolo, dopo aver dato la definizione di discesa di una permutazione, descriviamo altre conseguenze della corrispondenza biunivoca R-S: vediamo così che esiste una relazione tra le discese di una permutazione e la coppia di tabelle di Young associata. Abbiamo trattato approfonditamente i numeri Euleriani, indicati con A(n,k) = ]{σ ∈ Sn;d(σ) = k}, dove d(σ) indica il numero di discese di una permutazione. Descriviamo le loro proprietà e simmetrie e vediamo che sono i coefficienti di particolari polinomi, detti Polinomi Euleriani. Infine, attraverso la nozione di eccedenza di una permutazione e la descrizione della mappa di Foata arriviamo a dimostrare un importante risultato: A(n,k) conta anche il numero di permutazioni di Sn con k eccedenze.
Resumo:
In questa tesi riportiamo le definizioni ed i risultati principali relativi alla corrispondenza tra le successioni di polinomi di tipo binomiale (particolari basi dello spazio dei polinomi a coefficienti reali) e gli operatori delta, cioè operatori lineari sullo spazio dei polinomi che commutano con gli operatori di traslazione e il cui nucleo è costituito dai polinomi costanti. Nel capitolo 1 richiamiamo i concetti fondamentali sull'algebra delle serie formali e definiamo l'algebra degli operatori lineari invarianti per traslazione, dimostrando in particolare l'isomorfismo tra queste algebre. Nel capitolo 2, dopo aver dimostrato l'unicità della successione di base relativa ad un operatore delta, ricaviamo come esempio le successioni di base di tre operatori delta, che useremo durante tutto il capitolo: l'operatore derivata, l'operatore di differenza in avanti e l'operatore di differenza all'indietro. Arriviamo quindi a dimostrare un importante risultato, il Primo Teorema di Sviluppo, in cui facciamo vedere come le potenze di un operatore delta siano una base per l'algebra degli operatori invarianti per traslazione. Introducendo poi le successioni di Sheffer, possiamo dimostrare anche il Secondo Teorema di Sviluppo in cui esplicitiamo l'azione di un operatore invariante per traslazione su un polinomio, tramite un operatore delta fissato e una sua successione di Sheffer. Nell'ultima parte della tesi presentiamo i formalismi e alcune semplici operazioni del calcolo umbrale, che useremo per determinare le cosiddette costanti di connessione, ovvero le costanti che definiscono lo sviluppo di una successione binomiale in funzione di un'altra successione binomiale usata come base dello spazio dei polinomi.
Resumo:
Questo elaborato si propone di approfondire lo studio dei campi finiti, in modo particolare soffermandosi sull’esistenza di una base normale per un campo finito, in quanto l'utilizzo di una tale base ha notevoli applicazioni in ambito crittografico. Vengono trattati i seguenti argomenti: elementi di base della teoria dei campi finiti, funzione traccia e funzione norma, basi duali, basi normali. Vengono date due dimostrazioni del Teorema della Base Normale, la seconda delle quali fa uso dei polinomi linearizzati ed è in realtà un po' più generale, in quanto si riferisce ai q-moduli.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Lo scopo di questo lavoro è sperimentare l’impiego di ricevitori a basso costo per il posizionamento di cicli in ambito urbano. Questo tipo di rilievo trova ampio impiego nello studio e verifica delle funzionalità del reticolo delle piste ciclabili. Il rilievo effettuato in condizioni di scarsa visibilità verso la costellazione satellitare e in presenza di riflessioni multiple indotte da superfici verticali, quali quelle degli edifici in ambito urbano, risulta affetto da specifiche problematiche che si è cercato di affrontare nella presente tesi. In particolare si è analizzato l’effetto del “multipath”, nel posizionamento GPS, di un ciclista in movimento su percorsi caratterizzati da “canyon urbano”, nel centrostorico di Bologna. La strumentazione sperimentata è consistita da un tablet Smasung Note 10.1, uno smartphone Samsung S4 e un ricevitore GNSS (U-blox Neo-7P) collegato ad una Raspberry Pi 2. Anche a livello software è stato sperimentato per le unità Samsung sia il software Strava, che il Blackcountry Navigator. Mentre l’acquisizione del sensore U-blox è avvenuta direttamente tramite connessione seriale in un file di testo. Nel primo capitolo verrà presentato il sistema GPS nella sua generalità. Nel secondo, invece, verrà descritta la parte del sistema GPS, che si è utilizzato per questo lavoro. Nel terzo si mostreranno gli strumenti e le apparecchiature utilizzate durante il lavoro. Nel quarto si procederà alla presentazione del caso di studio. Nell’ultimo capitolo verranno riportate le conclusioni di tutto il lavoro svolto.
Resumo:
Scopo del presente lavoro è la presentazione del codice di calcolo semplificato adoperato nella sezione “Simulatore fotovoltaico” presente sul portale www.energia.cnr.it del progetto CNR ENERGY+. Utilizzando i valori reali di radiazione solare misurati dalle stazioni meteorologiche installate presso alcune sedi del CNR il codice, con appropriati algoritmi, generala scomposizione della radiazione sul piano orizzontale e su superfici inclinate e variamente orientate, in modo da pervenire alla potenza prodotta da un ipotetico impianto fotovoltaico posto sullo stesso sito di ubicazione della stazione.
Resumo:
In questa tesi si è eseguito uno studio preliminare (con risultati positivi) volto a verificare la possibilità di estendere al caso di forze r^(-α) il Teorema di stabilità di Antonov per sistemi autogravitanti newtoniani. Tale studio è volto a capire se i risultati di stabilità attualmente noti dipendano dalla speciale natura del campo r^(-2) o se valgono più genericamente per sistemi con forze a lungo range.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
Questo elaborato è incentrato sullo studio di un modello a volatilità locale, formulato da A. Conze e P. Henry-Labordère a partire dalla costruzione di R. Bass per le immersioni di Skorokhod. Dato un processo di prezzi, di cui è noto un numero finito di distribuzioni marginali, si suppone che sia una martingala non negativa esprimibile come funzione del tempo e di un altro processo stocastico (ad esempio un moto Browniano): l'obiettivo è l'individuazione di tale funzione. Per raggiungerlo ci si ricondurrà alla risoluzione di un'equazione di punto fisso, per la cui soluzione verranno forniti risultati di esistenza e unicità. La determinazione di questa funzione sarà funzionale al calcolo delle sensitività del modello.