1000 resultados para Teoria di Kaluza-KleinRelatività GeneraleGravitazioneElettromagnetismo5 dimensioni


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è stato quello di investigare il consumo di acqua sostenibile in un’organizzazione complessa come è l’Università di Bologna, con particolare riferimento alla realtà della Scuola di Ingegneria ed Architettura di via Terracini. Successivamente viene analizzato l’approccio della transizione, che comprende modalità e strumenti con cui si realizza il cambiamento all’interno della struttura sociale. Tra questi emerge il modello di cambiamento proposto dalla teoria di Transition Management, che sottolinea il ruolo fondamentale svolto dagli esperimenti di transizione nella realizzazione del cambiamento.Viene perciò proposta la teoria del Project management come vero e proprio strumento con il quale analizzare il progetto "Casa dell'acqua".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda l'analisi di immagini astronomiche. In particolare esamineremo tecniche che permettono l'elaborazione di immagini. Si parlerà di operazioni di base che comprendono le usuali operazioni matematiche e le trasformazioni geometriche fornendo alcuni esempi di applicazioni. Parleremo inoltre approfonditamente dell'operazione di convoluzione tra immagini e delle sue proprietà. Successivamente tratteremo in modo approfondito la teoria di Fourier, a partire dai suoi lavori sulle serie omonime fino allo sviluppo dell'algoritmo FFT. Vedremo inoltre svariate applicazioni della trasformata di Fourier all'analisi di immagini. Per concludere parleremo di deconvoluzione, analizzando in particolare due algoritmi deconvolutivi, l'algoritmo di Van Cittert e l'algoritmo di Richardson-Lucy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la valididi una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rapida diffusione di Sistemi Aerei a Pilotaggio Remoto che si è verificata negli ultimi anni ha portato alla necessità di regolamentare ed armonizzare il loro utilizzo. I vari enti regolatori nazionali hanno dovuto trovare una soluzione a fronte di una serie di incidenti che hanno portato alla luce le lacune normative ed organizzative che ancora esistevano in materia. In Italia, in particolare, l’Ente Nazionale Aviazione Civile (ENAC) ha introdotto da fine 2013 un regolamento, più volte aggiornato e in parte ancora in fase di definizione, che impone delle rigide norme agli operatori dei mezzi a pilotaggio remoto. La presente attività riporta quindi lo sviluppo di un processo di certificazione di un Sistema Aereo a Pilotaggio Remoto ad ala fissa con peso massimo al decollo superiore a 25 kg, che si possa adattare alle più recenti norme presenti nel regolamento. Si presenta quindi lo sviluppo del Manuale di volo e del documento di Valutazione del rischio del mezzo, seguiti dallo studio del programma di attività sperimentale necessario per la certificazione. Infine, nella parte finale dell’elaborato si presentano dei test di volo effettuati seguendo il piano di sperimentazione strutturato e atti a dimostrare l’efficacia di tale pianificazione. Tali voli sono stati condotti infatti con un velivolo con caratteristiche similari a quelle del mezzo oggetto di studio, ma avente dimensioni e peso minori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ci proponiamo di introdurre i risultati principali della teoria canonica delle perturbazioni. In particolare, studiamo la riduzione generale di sistemi unidimensionali e la teoria di Birkhoff nel caso multidimensionale. Come ulteriori sviluppi, descriviamo anche il teorema KAM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato di tesi è sintetizzare microcapsule di dimensioni non superiori ai 20 micron, contenenti un composto termocromico in modo da funzionare come indicatori di temperatura. Le capsule devono essere quindi in grado di variare la propria colorazione in funzione della temperatura del mezzo in cui sono disperse o dell’ambiente circostante, senza degradarsi. Il core è costituito da una miscela contenente un pigmento termocromico il cui colore varia da verde intenso se mantenuto a temperature ambiente, fino ad un verde pallido, quasi bianco, per temperature inferiori ai 10°C. Il core è stato quindi incapsulato in uno shell, costituito da una resina melammina-formaldeide (MF) mediante polimerizzazione in situ. Questo processo prevede la sintesi di un prepolimero MF che viene poi fatto reticolare in presenza di una emulsione del core in soluzione acquosa. Per prima cosa è stato ottimizzata la sintesi del prepolimero a partire da una soluzione acquosa di melammina e formaldeide. Vista la tossicità della formaldeide (H341-H350-H370) è stata studiata anche la possibilità di sostituire questo reagente con la sua forma polimerica (paraformaldeide) che a 45°C circa degrada rilasciando formaldeide in situ. In questo modo il processo risulta molto più sicuro anche in previsione di un suo possibile sviluppo industriale. In seguito è stato ottimizzato il processo di microincapsulazione in emulsione su vari tipi di core e studiando l’effetto di vari parametri (pH, temperatura, rapporto core/shell, tipo di emulsionante ecc.), sulle dimensioni e la stabilità delle microcapsule finali. Queste sono quindi state caratterizzate mediante spettrometria Infrarossa in trasformata di Fourier (FT-IR) e la loro stabilità termica è stata controllata tramite analisi TermoGravimetrica (TGA). Il processo di reticolazione (curing) della resina, invece, è stato studiato tramite Calorimetria Differenziale a Scansione (DSC). Le microcapsule sono inoltre state analizzate tramite Microscopio Elettronico (OM) e Microscopio Elettronico a Scansione (SEM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Immaginate di potervi rilassare a casa in una giornata d’estate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della città, oggi è possibile”. Quello che voglio fare attraverso questa tesi è di studiare la fattibilità per la realizzazione di una finestra che permetta il passaggio dell’aria ma non dei rumori. L’idea di questa particolare finestra silenziosa mi è stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dell’inquinamento sonoro in città. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dell’aria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata all’analisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori d’ingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Modello di Hopfield è un tentativo di modellizzare il comportamento di una memoria associativa come proprietà emergente di un network costituito da unità a due stati interagenti tra loro, e costituisce un esempio di come gli strumenti della meccanica statistica possano essere applicati anche al campo delle reti neurali. Nel presente elaborato viene esposta l'analogia tra il Modello di Hopfield e il Modello di Ising nel contesto delle transizioni di fase, applicando a entrambi i modelli la teoria di campo medio. Viene esposta la dinamica a temperatura finita e ricavata e risolta l'equazione di punto a sella per il limite di non saturazione del Modello di Hopfield. Vengono inoltre accennate le principali estensioni del Modello di Hopfield.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per ottimizzare processi di polimerizzazioni in soluzione è importante conoscere a fondo la solubilità del sistema polimero-solvente. A tale scopo è utile avere a disposizione un diagramma di fase che ci permetta di conoscere le condizioni di perfetta solubilità. Quando questo non è disponibile in letteratura si rende necessaria la sua costruzione. Questa tesi spiega in quale maniera si è provato a disegnare il diagramma di fase per il sistema polibutadiene in n-esano, partendo dalla teoria di Flory-Huggins fino ad arrivare a misure sperimentali che hanno fornito le temperature di passaggio tra la soluzione polimerica e la miscela eterogenea. Le misure reometriche si sono rivelate la maniera più precisa per questa valutazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il compound a matrice poliolefinica studiato è un materiale espandibile e reticolabile, usato per la produzione di manufatti espansi a celle chiuse mediante stampaggio ad iniezione. In questo progetto di tesi il compound viene studiato dal punto di vista reologico, per cercare di prevedere il grado di espansione del manufatto stampato. La correlazione tra l’analisi reometrica e il coefficiente di espansione del manufatto finale potrebbe essere sfruttata per un controllo di qualità del materiale, permettendo così di prevedere il comportamento e le dimensioni finali del manufatto prima dello stampaggio. Lo scopo dello studio è quello di prevedere le dimensioni del manufatto finale partendo da un campione derivante dai granuli del compound a matrice poliolefinica. La prima parte dello studio si concentra sull’analisi del materiale in condizioni ideali, cioè campioni che contengono solo agente reticolante e campioni che contengono esclusivamente agente espandente, valutando l’influenza di questi additivi singolarmente. La seconda parte si concentra sull’analisi del materiale in condizioni reali, co-presenza di reticolante ed espandente, e sulla ricerca di una correlazione tra le analisi reometriche e il coefficiente di espansione. L’ultima parte dello studio si focalizza sull’applicazione di un metodo di previsione lineare delle dimensioni di manufatti stampati, partendo da mescole incognite. Le tecniche di analisi impiegate spaziano da quelle termogravimetriche (TGA), calorimetriche (DSC) a quelle reometriche sui provini derivanti dai granuli, mentre sui campioni stampati sono state eseguite prove dimensionali, prove di densità, prove di durezza (SHORE A e Ascker C) e prove di abrasione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato affronta il tema della massiccia diffusione di disinformazione tramite internet sotto il profilo del diritto costituzionale, nell’ottica di indagare se le dimensioni del fenomeno richiedano l’elaborazione di principi e soluzioni nuove ovvero se i paradigmi costituzionali enucleati dalla tradizione costituzionalistica con riferimento alla libertà d’espressione forniscano gli strumenti sufficienti per un intervento efficace. In tale ottica, il lavoro premette una ricostruzione del fenomeno della disinformazione nel tentativo di individuare il perimetro socio-cognitivo e tecnologico entro cui la medesima prolifera, descrivendo gli elementi che distinguono l’informazione diffusa dai nuovi media rispetto a quella veicolata dai media mainstream. Ciò premesso, lo studio passa a delineare lo “statuto costituzionale” del falso, indagando la rilevanza che la menzogna assume sotto il profilo costituzionale nel suo rapporto con la libertà di manifestazione del pensiero negli ordinamenti interno, europeo e statunitense. L’analisi prosegue poi con l’esame delle politiche di contrasto alla disinformazione introdotte da singoli Stati (prevalentemente Germania, Francia e Italia), Unione europea, e piattaforme, con l’obiettivo di mettere in luce vantaggi e limiti dei modelli di eteroregolamentazione, coregolamentazione e autoregolamentazione. Da ultimo, l’elaborato scompone alcune delle azioni e misure passate in rassegna e le analizza con la lente d’ingrandimento della libertà di manifestazione del pensiero, ordinandone i contenuti secondo la specifica propensione a comprimere la libertà d’espressione. L’indagine si conclude con alcuni brevi spunti conclusivi che evidenziano l’esigenza, in base ai principi costituzionali analizzati, che eventuali interventi normativi siano se del caso volti alla regolazione delle piattaforme, ovvero dei “contenitori”, lasciano i contenuti al libero scambio delle idee.