451 resultados para varietà algebriche ideali dimensione singolarità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il percorso progettuale intrapreso ci ha permesso di confrontarci con un’analisi del territorio e della storia romana, che ne ha influenzato l’evoluzione. Considerando tutti i frammenti come parte di un sistema più grande dove non è possibile comprenderne uno se non attraverso gli altri, si è deciso di valorizzare gli elementi presenti con criteri ben precisi. Così viene ristabilita la rete di connessioni e relazioni che secondo noi più aiutano nella comprensione del sito e della sua storia, cercando di integrare nel contesto la varietà di sistemi archeologici, storici e culturali che caratterizzano il sito. I resti della città romana vengono trattati con approcci diversi, a seconda del grado di conoscenza e di esperienza che possiamo avere di ogni reperto. Per le tracce meno evidenti sono stati usati interventi più leggeri, reversibili, mentre per le rovine di cui abbiamo maggiori informazioni, sono stati proposti interventi più strutturati, che accompagnino il visitatore nella loro scoperta e comprensione. Le tracce di cui non si hanno molte informazioni, sono state trattate con segni molto più leggeri e reversibili, usando una strategia di lining out che comporti l’impiego di essenze, scelte in base ad associazioni con quello che vanno a simboleggiare. Per le emergenze archeologiche evidenti, è stato pensato un percorso interno che possa renderle fruibili, lasciando le rovine più intatte possibile, mentre l’intervento di musealizzazione più importante è destinato alla domus, che contiene i resti più rilevanti e quelli che necessitano una maggiore protezione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aumento della pressione parziale di anidride carbonica in atmosfera e il conseguente aumento dell’idrolisi di CO2 nell’acqua marina, noto come “acidificazione degli oceani", consiste nella diminuzione del pH e nella riduzione dello stato di saturazione delle acque (Ω) rispetto al carbonato di calcio (CaCO3). Il Golfo di Napoli è caratterizzato da elevati livelli di CO2 dovuti alla presenza di emissioni naturali di gas (vents), è perciò considerato un laboratorio naturale per prevedere gli effetti futuri sugli organismi marini dovuti all’aumento della acidificazione degli oceani. Questo lavoro di tesi valuta, per la prima volta, l’effetto dei vents sugli pteropodi Thecosomata (gasteropodi planctonici). Data la loro necessità di ioni carbonato per produrre la conchiglia, questi sono considerati “organismi sentinella” per i cambiamenti del sistema dei carbonati nell’ambiente marino. Gli pteropodi sono stati campionati e successivamente analizzati in termini di abbondanza specifica, dimensione e stato di degradazione della conchiglia. I principali risultati hanno mostrato che dalle stazioni di controllo alle zone con presenza di emissioni gassose, vi è un gradiente di diminuzione dei livelli di pH e Ωar, nonostante in nessuna stazione siano presenti livelli di sottosaturazione carbonatica. Gli pteropodi diminuiscono in termini di abbondanza e biodiversità presentando una conchiglia con livelli di dissoluzione elevata nelle stazioni adiacenti alle emissioni gassose, mentre lo stato di preservazione della conchiglia aumenta all’aumentare della distanza dalle zone di emissione, suggerendo che la variazione dello stato di saturazione nelle diverse stazioni, influenzi i processi di calcificazione dell’organismo. Gli effetti negativi delle emissione gassose sugli pteropodi potrebbero a lungo termine risultare in uno shift di popolazioni a vantaggio di organismi planctonici non calcificanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si propone di verificare l'esistenza di coordinate isoterme su una superficie. Le coordinate isoterme danno localmente una mappa conforme da una varietà riemanniana bidimensionale al piano Euclideo. Se la superficie è orientabile, allora si può dare un atlante di carte isoterme, cioè le cui coordinate associate siano isoterme. Queste coordinate esistono a patto che vengano soddisfatte certe condizioni. Il risultato nelle classi di Holder è dovuto a Korn e Lichtensten. Chern ha notevolmente semplificato la loro dimostrazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria frattale descrive la complessità strutturale di oggetti che presentano, entro certi limiti, invarianza a fattori di scala. Obiettivo di questa tesi è l’analisi di indici frattali della morfologia cerebrale e cerebellare da immagini di risonanza magnetica (MRI) pesate T1 e della loro correlazione con l’età. A tale scopo sono state analizzate la dimensione frattale (D0) e la lacunarità (λs), indice di eterogeneità strutturale, della sostanza grigia (GM) e bianca (WM), calcolate mediante algoritmi di box counting e di differential gliding box, implementati in linguaggio C++, e regressione lineare con scelta automatica delle scale spaziali. Gli algoritmi sono stati validati su fantocci 3D ed è stato proposto un metodo per compensare la dipendenza di λs dalle dimensioni dell’immagine e dalla frazione di immagine occupata. L’analisi frattale è stata applicata ad immagini T1 a 3T del dataset ICBM (International Consortium for Brain Mapping) composto da 86 soggetti (età 19-85 anni). D0 e λs sono state rispettivamente 2.35±0.02 (media±deviazione standard) e 0.41±0.05 per la GM corticale, 2.34±0.03 e 0.35±0.05 per la WM cerebrale, 2.19±0.05 e 0.17±0.02 per la GM cerebellare, 1.95±0.06 e 0.30±0.04 per la WM cerebellare. Il coefficiente di correlazione lineare tra età e D0 della GM corticale è r=−0.38 (p=0.003); tra età e λs, r=0.72 (p<0.001) (mostrando che l’eterogeneità strutturale aumenta con l’invecchiamento) e tra età e λs compensata rispetto al volume della GM cerebrale (GMV), r=0.51 (p<0.001), superiore in valore assoluto a quello tra età e GMV (r=−0.45, p<0.001). In un modello di regressione lineare multipla, dove l’età è stata modellata da D0, λ e GMV della GM corticale, λs è risultato l’unico predittore significativo (r parziale=0.62, p<0.001). La lacunarità λs è un indice sensibile alle variazioni strutturali dovute all’invecchiamento cerebrale e si candida come biomarcatore nella valutazione della complessità cerebrale nelle malattie neurodegenerative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni abbiamo assistito ad una graduale evoluzione delle interfacce utente e della tecnologia. Sono stati introdotti nuovi dispositivi mobile e wearable che negli ultimi anni hanno subito un incremento tecnologico esponenziale arrivando a fondersi con la vita di tutti i giorni. Le classiche interfacce grafiche WIMP, la metafora del desktop e le linee guida di progettazione fino ad ora sviluppate non risultano ideali per la nuova tecnologia di wearable computing. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove user inteface basate sulla tecnologia wearable ed in particolare per smart glasses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi presenta il risultato di una attività di sperimentazione su alcuni algoritmi di ottimizzazione topologica recentemente sviluppati in ambito scientifico e descritti in pubblicazioni su riviste internazionali. L’ottimizzazione topologica può essere definita come una tecnica che mira a variare la forma geometrica di un oggetto bidimensionale o tridimensionale in modo da rispettare requisiti su posizionamento di vincoli e applicazione di forze e da minimizzare l’impiego di materiale necessario ad ottenere una struttura che soddisfi alcuni requisiti. Il settore aerospaziale è sicuramente uno di quelli che può beneficiare di questa metodologia visto che è sempre necessario progettare componenti leggeri e quanto più ottimizzati riducendo gli sprechi di materiale; in ambito aeronautico questo porta ad incrementare l’autonomia ed il carico utile riducendo i costi ambientali ed economici delle attività di trasporto. Discorso analogo vige per il campo spaziale in cui i pesi sono cruciali per la scelta del lanciatore da utilizzare per mandare in orbita strumentazioni e impattano in maniera importante sui costi delle missioni. In questa tesi, dopo una breve descrizione delle tecniche di ottimizzazione topologica prese in considerazione nei test svolti, sono presentati i risultati dell'applicazione di questi metodi ad una serie di specifici casi applicativi del settore aerospaziale, mettendo in risalto i risultati in termini di forme geometriche ottenute per alcuni casi di studio. Per ognuno di questi è descritta la schematizzazione seguita a livello di vincoli e di carichi e la dimensione della superficie o volume di controllo di partenza. Gli esiti del processo di ottimizzazione sono poi commentati, sia a livello di conformazione geometrica ottenuta che di possibilità di implementare dal punto di vista costruttivo la forma trovata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato tratta il lavoro di studio, analisi e sperimentazione effettuato dal sottoscritto, Giovanni Sitta, in conclusione al Corso di Laurea Magistrale in Informatica presso l'Università degli Studi di Bologna. Questo ha dapprima previsto un periodo di approfondimento di alcune architetture di supporto alla mobilità dei terminali di rete, in particolare di due protocolli allo stato dell'arte, Mobile IPv6 (MIPv6) e Locator/Identifier Separation Protocol (LISP), e di una terza architettura sperimentale denominata Always Best Packet Switching (ABPS). Sono stati in seguito esaminati tre simulatori, uno per ciascuna architettura di supporto alla mobilità considerata, realizzati come estensioni della libreria INET del framework OMNeT++, assicurandosi che fossero conformi alle specifiche del protocollo implementato (almeno entro i limiti di semplificazione rilevanti ai fini del lavoro), e correggendone eventuali problematiche, mancanze e anomalie in caso questi non le rispettassero. Sono poi stati configurati alcuni scenari simulativi utilizzando le tre librerie, in prima battuta di natura molto semplice, utilizzati per verificare il corretto funzionamento dei simulatori in condizioni ideali, e successivamente più complessi, allestendo un ambiente di esecuzione più verosimile, dotato di un maggior numero di host connessi alla rete e di ostacoli per i segnali radio usati nelle comunicazioni wireless. Tramite i risultati sperimentali ottenuti da queste simulazioni è stato infine possibili realizzare un confronto tra le prestazioni di MIPv6, LISP e ABPS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.