998 resultados para Superfici Minime, Spazio Euclideo, Spazio di Minkowski.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca è dedicata a verificare se e come, a livello dell’Unione europea, la lotta alla criminalità (ed in particolare quella organizzata) venga condotta nel rispetto di diritti e libertà fondamentali, e se la cooperazione tra Stati membri su questo fronte possa giungere a promuovere standard omogenei ed elevati di tutela degli stessi. Gli ambiti di cooperazione interessati sono principalmente quello giudiziario in materia penale e quello di polizia, e la ritrosia degli Stati a cedere all’Unione competenze in materia si è accompagnata ad un ritardo ancora maggiore dell’emersione, nell’ambito degli stessi, della dimensione dei diritti. Ciò ha reso molto difficile lo sviluppo completo ed equilibrato di uno “spazio di libertà, sicurezza e giustizia” (art. 67 TFUE). L’assetto istituzionale introdotto dal Trattato di Lisbona e l’attribuzione di valore giuridico vincolante alla Carta hanno però posto le basi per il superamento della condizione precedente, anche grazie al fatto che, negli ambiti richiamati, la salvaguardia dei diritti è divenuta competenza ed obiettivo esplicito dell’Unione. Centrale è per la ricerca la cooperazione giudiziaria in materia penale, che ha visto la ricca produzione normativa di stampo repressivo recentemente bilanciata da interventi del legislatore europeo a finalità garantista e promozionale. L’analisi degli strumenti nella prospettiva indicata all’inizio dell’esposizione è quindi oggetto della prima parte dell’elaborato. La seconda parte affronta invece la cooperazione di polizia e quello degli interventi volti alla confisca dei beni e ad impedire il riciclaggio, misure – queste ultime - di particolare rilievo soprattutto per il contrasto al crimine organizzato. Sottesi all’azione dell’Unione in queste materie sono, in modo preponderante, due diritti: quello alla salvaguardia dei dati personali e quello al rispetto della proprietà privata. Questi, anche in ragione delle peculiarità che li caratterizzano e della loro natura di diritti non assoluti, sono analizzati con particolare attenzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il punto di partenza dell'elaborato riguarda il modo in cui si giunge, a partire dalla relatività ristretta, a quella generale. Quest'ultima viene poi identificata come una teoria della gravitazione in cui si ottengono le equazioni di campo. Da qui si discute la soluzione delle equazioni di Einstein trovata da Schwarzschild evidenziandone i limiti. Si procede alla estensione di questa soluzione introducendo dapprima le coordinate di Eddington-Finkelstein e poi l'estensione massima data da Kruskal. Infine viene mostrato come è possibile compattificare l'infinito spaziotempo in una regione finita senza alterare la struttura causale. Questo viene fatto tramite delle trasformazioni particolari: le trasformazioni conformi. I diagrammi spaziotemporali che si ottengono dopo la compattificazione conforme sono conosciuti come i digrammi di Penrose e qui si vede come ottenere quelli dello spaziotempo di Minkowski e quelli dello spaziotempo della soluzione di Schwarzschild.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si fornisce un'introduzione al formalismo geometrico della meccanica classica e quantistica, studiando dapprima lo spazio delle fasi come varietà simplettica ricavando le equazioni di Hamilton. Si descrivono in seguito gli strumenti necessari per operare in uno spazio di Hilbert, i quali risultano più complessi di quelli utilizzati per descrivere lo spazio delle fasi classico. In particolare notiamo l'esigenza di definire anche una struttura riemanniana sugli spazi complessi per poter ivi definire il prodotto scalare, le parentesi e i commutatori simmetrici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio del coefficiente di resistenza aerodinamica, della potenza aerodinamica e del comportamento in caso di raffica di vento laterale, su un modello del restyling della vettura Astura, disegnato in SolidWorks. Attraverso le simulazioni in una galleria del vento fittizia realizzata in Flow Simulation si è ottenuta la resistenza aerodinamica del modello. Da questa è stato possibile ottenere il valore del coefficiente di resistenza e la potenza aerodinamica assorbita. Il coefficiente di resistenza è stato confrontato con quello di veicoli presenti sul mercato. Si è poi studiato il comportamento della vettura in caso di raffica laterale, ricorrendo all'ellisse di aderenza degli pneumatici e verificando che la stabilità con raffiche fino a 150 km/h non venga compromessa. Lo stesso stuido è stato fatto nel caso in cui si inizi una frenata sempre sotto l'influenza di una raffica laterale; si è visto che, al fine di non perdere aderenza, lo spazio di frenata deve aumentare. Si è quindi calcolato lo spazio minimo necessario per la frenata, in presenza di una raffica di 150 km/h, senza che si verifichi una perdita di aderenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha come obiettivo principale quello di calcolare il gruppo fondamentale di alcuni spazi topologici noti, in particolare alcuni spazi di orbite rispetto ad azioni di gruppi. Il gruppo fondamentale è un gruppo che può essere associato ad ogni spazio topologico X connesso per archi e che per le sue proprietà può fornire informazioni sulla topologia di X; è uno dei primi concetti della topologia algebrica. La nozione di gruppo fondamentale è strettamente legata alla nozione di rivestimento, particolare funzione tale che ogni punto del codominio possiede un intorno aperto la cui retroimmagine è unione disgiunta di aperti del dominio ognuno dei quli omeomorfi all’intorno di partenza. Si prendono poi in considerazione il caso di spazio di orbite, cioè di uno spazio quoziente di uno spazio topologico X rispetto all’azione di un gruppo. Se tale azione è propriamente discontinua allora la proiezione canonica è un rivestimento. In questa tesi utilizzeremo i risultati che legano i gruppi fondamentali di X e X/G per calcolare il gruppo fondamentale di alcuni spazi notevoli, quali la circonferenza, il toro, lo spazio proiettivo e il nastro di Moebius.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si consideri un insieme X non vuoto su cui si costruisce una sigma-algebra F, una trasformazione T dall'insieme X in se stesso F-misurabile si dice che conserva la misura se, preso un elemento della sigma-algebra, la misura della controimmagine di tale elemento è uguale a quella dell'elemento stesso. Con questa nozione si possono costruire vari esempi di applicazioni che conservano la misura, nell'elaborato si presenta la trasformazione di Gauss. Questo tipo di trasformazioni vengono utilizzate nella teoria ergodica dove ha senso considerare il sistema dinamico a tempi discreti T^j x; dove x = T^0 x è un dato iniziale, e studiare come la dinamica dipende dalla condizione iniziale x. Il Teorema Ergodico di Von Neumann afferma che dato uno spazio di Hilbert H su cui si definisce un'isometria U è possibile considerare, per ogni elemento f dello spazio di Hilbert, la media temporale di f che converge ad un elemento dell'autospazio relativo all'autovalore 1 dell'isometria. Il Teorema di Birkhoff invece asserisce che preso uno spazio X sigma-finito ed una trasformazione T non necessariamente invertibile è possibile considerare la media temporale di una funzione f sommabile, questa converge sempre ad una funzione f* misurabile e se la misura di X è finita f* è distribuita come f. In particolare, se la trasformazione T è ergodica si avrà che la media temporale e spaziale coincideranno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La trasformata di Karhunen-Loève monodimensionale è la decomposizione di un processo stocastico del secondo ordine a parametrizzazione continua in coefficienti aleatori scorrelati. Nella presente dissertazione, la trasformata è ottenuta per via analitica, proiettando il processo, considerato in un intervallo di tempo limitato [a,b], su una base deterministica ottenuta dalle autofunzioni dell'operatore di Hilbert-Schmidt di covarianza corrispondenti ad autovalori positivi. Fondamentalmente l'idea del metodo è, dal primo, trovare gli autovalori positivi dell'operatore integrale di Hilbert-Schmidt, che ha in Kernel la funzione di covarianza del processo. Ad ogni tempo dell'intervallo, il processo è proiettato sulla base ortonormale dello span delle autofunzioni dell'operatore di Hilbert-Schmidt che corrispondono ad autovalori positivi. Tale procedura genera coefficienti aleatori che si rivelano variabili aleatorie centrate e scorrelate. L'espansione in serie che risulta dalla trasformata è una combinazione lineare numerabile di coefficienti aleatori di proiezione ed autofunzioni convergente in media quadratica al processo, uniformemente sull'intervallo temporale. Se inoltre il processo è Gaussiano, la convergenza è quasi sicuramente sullo spazio di probabilità (O,F,P). Esistono molte altre espansioni in serie di questo tipo, tuttavia la trasformata di Karhunen-Loève ha la peculiarità di essere ottimale rispetto all'errore totale in media quadratica che consegue al troncamento della serie. Questa caratteristica ha conferito a tale metodo ed alle sue generalizzazioni un notevole successo tra le discipline applicate.