998 resultados para Cosmologia, astrofisica, ammassi di galassie, funzione di correlazione a due punti, BAO, clustering
Resumo:
In questo elaborato si propone il metodo di regolarizzazione mediante Variazione Totale per risolvere gli artefatti presenti nelle immagini di Risonanza Magnetica. Di particolare interesse sono gli artefatti di Gibbs, dovuti al troncamento dei dati, nel processo di acquisizione, e alla tecnica di ricostruzione basata sulla trasformata di Fourier. Il metodo proposto si fonda su un problema di minimo la cui funzione obiettivo è data dalla somma di un termine che garantisce la consistenza con i dati, e di un termine di penalizzazione, ovvero la Variazione Totale. Per la risoluzione di tale problema, si utilizza il metodo Alternating Direction Method of Multipliers (ADMM). In conclusione, si mostra l’efficacia del metodo descritto applicandolo ad alcuni problemi test con dati sintetici e reali.
Resumo:
In questa tesi si vuole trattare il concetto di dimensione a partire dalla teoria della misura e lo si vuole applicare per definire e studiare gli insiemi frattali, in particolare, autosimili. Nel primo capitolo si tratta la dimensione di Hausdorff a partire dalla teoria della misura di Hausdorff, di cui si osservano alcune delle proprietà grazie a cui la prima si può definire. Nel secondo capitolo si danno altre definizioni di dimensione, come ad esempio quella di auto-similarità e la box-counting, per mostrare che tale concetto non è univoco. Si analizzano quindi le principali differenze tra le diverse dimensioni citate e si forniscono esempi di insiemi per cui esse coincidono e altri, invece, per cui esse differiscono. Nel terzo capitolo si introduce poi il vero e proprio concetto di insieme frattale. In particolare, definendo i sistemi di funzioni iterate e studiandone le principali proprietà, si definisce una particolare classe di insiemi frattali detti autosimili. In questo capitolo sono enunciati e dimostrati teoremi fondamentali che legano gli attrattori di sistemi di funzioni iterate a insiemi frattali autosimili e forniscono, per alcuni specifici casi, una formula per calcolarne la dimensione di Hausdorff. Si danno, inoltre, esempi di calcolo di tale dimensione per alcuni insiemi frattali autosimili molto noti. Nel quarto capitolo si dà infine un esempio di funzione che abbia grafico frattale, la Funzione di Weierstrass, per mostrare un caso pratico in cui è utilizzata la teoria studiata nei capitoli precedenti.
Resumo:
Il matematico tedesco Oscar Perron, tra il 1910 e il 1914, introduce l'integrale che porterà il suo nome con lo scopo di risolvere una limitazione negli integrali di Riemann e di Lebesgue. Il primo a studiare questo integrale è Denjoy nel 1912 il cui integrale si dimostrerà essere equivalente a quello di Perron. Oggi è più utilizzato l'integrale di Henstock-Kurzweil, studiato negli anni '60, anch'esso equivalente ai due precedenti. L'integrale di Perron rende integrabili tutte le funzioni che sono la derivata di una qualche funzione e restituisce l'analogo del Teorema Fondamentale del Calcolo Integrale nella versione di Torricelli-Barrow. L'integrale di Perron estende e prolunga l'integrale di Lebesgue, infatti se una funzione è sommabile secondo Lebesgue è anche Perron-integrabile e i due integrali coincidono. Per le funzioni non negative vale anche il viceversa e i due integrali sono equivalenti, ma in generale non è così, esistono infatti funzioni Perron-integrabili ma non sommabili secondo Lebesgue. Una differenza tra questi due integrali è il fatto che quello di Perron non sia un integrale assolutamente convergente, ovvero, la Perron integrabilità di una funzione non implica l'integralità del suo valore assoluto; questa è anche in parte la ragione della poca diffusione di questo integrale. Chiudono la tesi alcuni esempi di funzioni di interesse per la formula di "Torricelli-Barrow" e anche un notevole teorema che non sempre si trova nei libri di testo: se una funzione è derivabile in ogni punto del dominio e la sua derivata prima è sommabile allora vale la formula di "Torricelli-Barrow".
Resumo:
Questa Tesi di Laurea si propone di studiare il cosiddetto Principio di Propagazione del Massimo per alcune operatori alle derivate parziali lineari del secondo ordine semiellittici e omogenei. Proviamo infatti che, data una funzione subarmonica per un operatore della tipologia di sopra, se questa funzione ammette un punto di massimo interno al suo dominio di definizione, allora questo massimo si "propaga" lungo le curve integrali dei campi vettoriali principali per l'operatore. Come applicazione di questo risultato, verifichiamo che alcuni operatori di tipo somma di quadrati di Hörmander godono del cosiddetto Principio del Massimo Forte: cioè, se una funzione subarmonica per questi operatori ammette un punto di massimo interno, allora è costante.
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Questo lavoro si propone di implementare tre scenari di compromissione informatica tramite l'ausilio della strumentazione fornita da Ansible e Docker. Dopo una prima parte teorica di presentazione delle più recenti vulnerabilità/compromissioni informatiche, si passa all'illustrazione degli strumenti e dell'architettura degli scenari, anche tramite l'ausilio di codice. Tramite la funzione UNIX time si effettua l'analisi di diverse tecniche di distribuzione, dimostrando come l'automazione abbia effettivi e seri vantaggi rispetto ad una continua implementazione manuale, principalmente da un punto di vista temporale e computazionale.
Resumo:
L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.
Resumo:
L'elaborato di tesi prende in esame il processo di produzione della linea “Pordenone”, in funzione nello stabilimento forlivese, di Electrolux S.P.A., azienda leader mondiale nella produzione di elettrodomestici e apparecchiature per l'uso domestico. Ragione del presente studio è l’acquisizione dell’opportuna comprensione del funzionamento dell’impianto al fine di individuare le inefficienze, le causali di fermata per la pianificazione della produzione o per gli interventi di manutenzione correttiva dei guasti, in modo da poter suggerire azioni di miglioramento. Per monitorare il processo di produzione è stato applicato all'oggetto di indagine lo studio del diagramma di Pareto, che ha permesso di evidenziare le principali causali all'origine della riduzione di produttività. Oltre a suggerire ipotesi di azioni di miglioramento, si è sottolineata l'importanza del coinvolgimento motivazionale degli operatori nelle procedure di lavoro, e l'opportunità di una maggiore implementazione del sistema informatico. Ragioni di carattere economico o di sicurezza dell'operatore, non hanno permesso di accogliere alcuni suggerimenti proposti, mentre sono state apportate migliorie nella produzione attraverso la riduzione delle fermate di lavoro. Nell'attuale clima di incertezza produttiva e di calo di domanda da parte di alcuni mercati, non è facile elaborare strategie di produzione innovative, tali da garantire la qualità del prodotto offerto e i risultati economici attesi, nel rispetto autentico dell'ambiente della collettività. Tuttavia, si ritiene che le informazioni generate da un adeguato monitoraggio del sistema offrano la possibilità di guardare avanti verso i progressi, piuttosto che concentrare la propria attenzione sulle opportunità mancate, e che le stesse informazioni possano trasformare l'agire dalla reattività (azione dopo il fatto) alla proattività (agire in anticipo) per migliorare efficacemente il processo di produzione.
Resumo:
Questa tesi riguarda il Teorema di Morse-Sard nella sua versione generale. Tale teorema afferma che l'immagine dei punti critici di una funzione di classe C^k da un aperto di R^m a R^n è un insieme di misura di Lebesgue nulla se k >= m-n+1 (se m >= n) o se k >= 1 (se m
Resumo:
Il presente elaborato di tesi si pone come obiettivo lo studio dei criteri di progettazione di un impianto fotovoltaico connesso alla rete con sistema di accumulo. In primo luogo, è stato introdotto il tema dell’energia rinnovabile, in particolare l’energia solare descrivendo e definendone le caratteristiche. In seguito, è stato descritto dettagliatamente l’effetto fotovoltaico e lo stato dell’arte relativo alla tecnologia fotovoltaica e tipologie di impianto. Si procede con lo studio dello scenario reale, la progettazione e il dimensionamento dell’impianto fotovoltaico, effettuata con l’ausilio di PVGIS Tool, SUNNYDESIGN e Microsoft Excel. In questa fase si scelgono i dispositivi principali, quali pannelli, inverter e sistema di accumulo in funzione delle caratteristiche del sito di installazione, che nel nostro caso è uno stabile adibito ad ufficio sito a Bologna in cui è possibile installare un impianto la cui taglia è di 20.8 kWp. In seguito, è presente lo studio della producibilità energetica pari a 30190 kWh/anno, nella quale è definito e calcolato l’autoconsumo dell’impianto tramite fogli di calcolo Excel. Segue l’introduzione alle normative, che definiscono lo stato dell’arte degli impianti fotovoltaici e il collegamento in BT (CEI 0-21, 64-8), e la progettazione elettrica, con l’utilizzo di AutoCAD, dell’impianto elettrico di collegamento in BT alla rete di distribuzione con allacciamento alla rete. Infine, l’elaborato si conclude con l’analisi economica dell’impianto con e senza sistema di accumulo, nella quale viene calcolato, tramite foglio Excel, il PayBackTime pari a 5.08 anni nel primo caso e 4.17 nel secondo, il risparmio energetico cumulativo nei 25 anni di esercizio previsti dell’impianto che è di 447.7 k€ per la prima tipologia di impianto e di 437.45 k€ per la seconda ed in conclusione i flussi di cassa durante lo stesso periodo che sono di 294.93 k€ per l’impianto fotovoltaico con accumulo e di 320.58 k€ per quello senza sistema di accumulo.
Resumo:
L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.
Resumo:
Studio dei metodi di progettazione per lo sviluppo di eliche aeronautiche. Come caso di studio è stata scelta la progettazione di un’elica che ottimizzi le prestazioni del Risen, prodotto dalla Porto Aviation Group. Questo ultraleggero monta motore Rotax915IS, che eroga una potenza considerevolmente maggiore rispetto ai motori adottati in precedenza: sono state, quindi, progettate una serie di eliche in grado di convertire in maniera efficiente la coppia ricevuta in spinta nelle diverse fasi di volo del velivolo. E' incluso nella tesi uno studio di sensitività in cui è stato verificato come varia la spinta in funzione dei diversi parametri costruttivi dell'elica aeronautica. Lo sviluppo dell’elica avviene attraverso il seguente percorso: 1) definizione parametri di volo e funzionamento motore del velivolo a cui accoppiare l'elica, 2) studio delle prestazioni dell'aereo con le eliche già disponibili così da potere validare i calcoli, 3) stima delle prestazioni dell'aereo in seguito a variazioni delle caratteristiche geometriche della pala; 4) sintesi caratteristiche costruttive per ottenere una pala in grado di fornire prestazioni soddisfacenti in ogni fase del volo. Gli studi sono stati supportati da analisi su codici software commerciali, al fine di valutare l’influenza dei parametri costruttivi sulle prestazioni del velivolo a cui viene accoppiata l'elica. Lo studio ha condotto allo sviluppo di cinque pale, una delle quali presenta ottime prestazioni.
Resumo:
I sensori a fibre ottiche rappresentano una delle tecnologie più promettenti per il monitoraggio di varie strutture ingegneristiche. Tali sensori, dopo che sono stati incollati su differenti tipologie di strutture grazie a un dispositivo optoelettronico, restituiscono il profilo di deformazione del materiale ospite. Tuttavia, risulta piuttosto complicato ottenere queste curve, in quanto sono necessari numerosi provini che richiedono spese onerose e molto tempo per i singoli esperimenti. In più, si deve tenere in considerazione che i provini non sono mai completamente identici e che l’operatore può commettere errori. In questo studio si genera un programma attraverso cui si simulano diversi andamenti di deformazione, cercando di riprodurre al meglio i vari casi sperimentali. Infine, utilizzando un codice già esistente, si ricavano le curve di probabilità di rilevamento del danno in funzione della lunghezza di cricca. Una volta creato il codice, si modificano alcuni parametri, in particolare si alterano lo shear lag e alcune caratteristiche meccaniche della fibra ottica, ovvero il raggio e il modulo di Young, per vedere l’influenza che hanno sulle curve di probabilità. I risultati hanno dimostrato che lo shear lag della fibra ottica deve essere il più possibile alto e di conseguenza il raggio e il modulo di Young della fibra devono essere bassi, in quanto quest’ultimi si trovano a denominatore della formula usata per calcolare lo shear lag.