1000 resultados para gruppi di Lie teoria delle rappresentazioni analisi armonica su SU(2)
Resumo:
L’aumento crescente della domanda di idrocarburi a livello mondiale ha determinato un progressivo aumento dell’estrazione “offshore” e del trasporto via mare di petrolio. In questo contesto non sono da escludersi incidenti e conseguenti sversamenti di olio in mare. Sversato sulla superficie del mare, l’olio, subisce una serie di trasformazioni chimico-fisiche che prendono il nome di “processi di weathering”. In base alla quantità di prodotto rilasciato, i rilasci di olio possono portare ad ingenti danni ambientali, minando la sopravvivenza degli ecosistemi contaminati dall’olio. La condizione di rilevante criticità ambientale prodotta da uno sversamento accidentale di olio richiede la preparazione di precisi piani di intervento. Tipicamente le azioni intraprese hanno lo scopo di attuare la riduzione della massa di olio galleggiante e di evitare lo spiaggiamento dell’olio. Il presente lavoro di tesi si colloca nell’ambito della modellazione matematica degli sversamenti superficiali di olio in mare, al fine di quantificare l’influenza delle diverse azioni di emergenza sull’olio sversato. Lo scopo della tesi è quello di testare un software denominato ROC - Response Options Calculator, per simulare i fenomeni di weathering degli sversamenti di olio in presenza di azioni di emergenza di diversa tipologia. Il lavoro di tesi è suddiviso come segue: il capitolo 1 ha un ruolo introduttivo; nel capitolo 2 è descritto in dettaglio il software ROC; nel capitolo 3 è presentata l’applicazione del codice ad un caso di studio rappresentato da una piattaforma “offshore”, per la quale sono considerati 3 differenti scenari di rilascio accidentale sulla superficie del mare, a ciascuno dei quali corrisponde una diversa risposta all’emergenza ed un diverso insieme di risorse; nello stesso capitolo è inoltre presentata l’applicazione di un’equazione per la progettazione della risposta meccanica ad uno dei rilasci del caso di studio; il capitolo 4 riporta alcune considerazioni conclusive.
Resumo:
La radiazione di sincrotrone è il processo di radiazione più comune nella astrofisica delle alte energie in presenza di elettroni ultrarelativistici in moto in un campo magnetico. Sono attribuibili a questo processo le radio emissioni dei raggi cosmici (elettroni e positroni) della nostra galassia, dei resti di supernovae e delle sorgenti radio extragalattiche. In particolare, questa trattazione si soffermerà sullo studio dell’emissione tramite radiazione di sincrotrone da parte delle pulsar, stelle di neutroni in rapida rotazione e dotate di un campo magnetico, che ad intervalli estremamente regolari (periodo di rotazione) emettono radiazione coerente in regioni coniche allineate con l’asse magnetico, sotto forma di impulsi, secondo un processo che viene denominato ”effetto faro”.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.
Resumo:
Dopo aver illustrato i concetti chiave della teoria delle varie classi di complessità computazionale, l'elaborato si pone come obiettivo quello di inserire in una classe di complessità il seguente problema: "Quanto è difficile salvare la principessa in Super Mario Bros?". Analizzeremo 3 varianti diversi del gioco, e per ognuna di essi daremo un risultato.
Resumo:
A seguito di recenti risultati nel campo dell’Astrofisica, con questo elaborato ci si propone di approfondire il ruolo della viscosità in una classe di modelli cosmologici. La discussione ha lo scopo di generalizzare delle tecniche applicate con successo nello studio dei fluidi ideali a sistemi dove anche la viscosità é un parametro che necessita di essere largamente preso in considerazione. Nello specifico, ci si serve di strumenti computazionali e geometrici e di teoria delle equazioni differenziali alle derivate parziali per comprendere, da un punto di vista matematico, come associare le Equazioni di Einstein ai fluidi in specifici background cosmologici. Questo elaborato parte dallo studio dei fluidi ideali in un background di tipo FLRW al fine di generalizzarlo a fluidi viscosi che scorrono in un background di tipo Bianchi I. Infine si indicano alcuni problemi ancora aperti relativi al caso dissipativo e le possibili strategie risolutive di tali questioni.
Resumo:
L’obiettivo di questo elaborato è quello di implementare un Modem digitale che è basato su una modulazione Orthogonal Frequency Division Multiplexing (OFDM) ed è formato da due tipi di dispositivi radio differenti, i quali sono molto utili, poiché si possono utilizzare in diversi scopi senza doverne modificare l’hardware ma solo cambiando la parte software perché sono programmabili. I due dispositivi sono i seguenti: • Analog Device Adalm-Pluto: dispositivo in grado sia di trasmettere che di ricevere. Lo utilizzeremo solamente per trasmettere il segnale. • Noeelec NE-SDR: dispositivo in grado solo di ricevere. Lo utilizzeremo quindi solamente per ricevere il segnale. Il tipo di modulazione da noi utilizzata per trasmettere il segnale è come detto in precedenza la modulazione OFDM. Essa è molto efficiente nell’occupazione della banda ed applica la trasmissione di un segnale su più portanti affiancate nel dominio delle frequenze. Questo significa che ogni portante che compone il segnale completo si trova ad una frequenza multipla della principale f0. Inoltre il vantaggio di questa modulazione sta nel fatto di sapere che l’informazione è contenuta nel segnale passa-basso inviluppo complesso rappresentativo i(t) e per questo motivo vedremo, nel corso dell’elaborato, come lo schema di trasmissione e ricezione sia molto semplificato.
Resumo:
Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.
Resumo:
Obiettivo di questo elaborato è fornire un quadro generale del fumetto e della sua traduzione. Partendo dalla definizione teorica di questo tipo di opera, vengono poi descritti gli elementi che la compongono e i webcomic, fumetti digitali nati grazie all’avvento di Internet. L’attenzione è successivamente focalizzata sulla traduzione del fumetto, la quale è direttamente condizionata sia dagli elementi che lo compongono, sia da altri fattori come preferenze del target e convenzioni culturali, e che condivide molti dei suoi aspetti con il processo di localizzazione. Segue una spiegazione della pratica nota come scanlation, ovvero la traduzione non professionale di fumetti svolta da appassionati. Essa viene condivisa su Internet da gruppi di scanlation e presenta alcune peculiarità nel suo svolgimento. Per concludere viene proposta l’analisi di due traduzioni non professionali in italiano del manhua Tamen de gushi 她们的故 di Tan Jiu 坛九, le quali sono state confrontate sia con la scanlation in inglese dell’opera, sia con il testo originale in cinese mandarino.
Resumo:
In Italia ci troviamo dinanzi a un panorama letterario molto limitato per quanto riguarda il superamento della concezione binaria dei generi e della visione eteronormativa della società. Attraverso una proposta di traduzione di un capitolo del romanzo per adolescenti "it" dell’autrice canadese Catherine Grive, il presente elaborato vuole aprire una finestra su questo universo poco esplorato. Le parole, e quindi la letteratura, hanno un fortissimo potere sulla società, e la letteratura per bambini.e e ragazzi.e ne ha ancora di più. Infatti, la letteratura per l’infanzia combina sapientemente aspetti ludici, letterari e pedagogici, offrendo intrattenimento, storie appassionanti, valori di inclusione e incoraggiamenti allo spirito critico. Tuttavia, rappresenta anche un ambito altamente suscettibile alla censura per tutto ciò che viene considerato tabù o potenzialmente dannoso per lo sviluppo dei più piccoli e delle più piccole. Di conseguenza la rappresentazione di identità LGBTQ+, specialmente di quelle transgender, è ancora poco sviluppata. In questo elaborato verranno affrontati i temi degli Studi di Genere e delle teorie Queer. Successivamente, attraverso una panoramica sugli studi sulla traduzione per l’infanzia, sia in chiave di genere che queer, andremo ad esporre le principali caratteristiche di questa letteratura e le varie sfide traduttive con cui si scontrano le traduttrici e i traduttori. Infine, attraverso la proposta di traduzione del romanzo per ragazze.i "it", verrà offerto un approccio più pragmatico riguardante le tematiche esposte in precedenza, attraverso un commento alle scelte traduttive ed un’analisi dell’opera nel suo insieme.
Resumo:
La produzione additiva è una tecnologia innovativa completamente rivoluzionaria. La sua tecnica di costruzione layer by layer a partire da un file digitale consente la progettazione di componenti più complessi e ottimizzati, favorendo la stampa 3D su richiesta. La produzione additiva è potenzialmente in grado di offrire numerosi vantaggi sul tema della sostenibilità, rappresentati dall’utilizzo più efficiente delle risorse, dalla vita estesa dei prodotti e dalle nuove configurazioni delle catene di valore. L’ importanza di determinare gli impatti che tale processo genera lungo il suo ciclo di vita, ha portato ad una revisione della letteratura su tale argomento. In particolare, la mancanza di dati e modelli ha focalizzato l’attenzione su studi LCA di specifici processi. Grazie a tale strumento è stato possibile determinare l’influenza di diversi materiali, parametri di processo e scenari di utilizzo. Infine, viene mostrato quanto sia significativo l’impatto sociale che è in grado di generare la produzione additiva.
Resumo:
La presente tesi, redatta durante un tirocinio presso l’azienda Automobili Lamborghini S.p.a., ha come fine ultimo la descrizione di attività volte all’evoluzione dell’ente Training Center facente parte dell’area industriale. L’ente Training center è responsabile dell'organizzazione, dell'erogazione e del monitoraggio della formazione incentrata sulle cosiddette technical skills utili per il miglioramento o il rafforzamento delle competenze e delle conoscenze tecniche degli operatori. La prima attività descritta ha lo scopo di creare un database contenente tutte le competenze che ogni operatore deve possedere per poter lavorare autonomamente su una determinata stazione di lavoro al fine di individuare il gap di competenze. L’analisi condotta ha come obiettivi: la pianificazione strategica della forza lavoro, la mappatura dell’intera organizzazione, l’implementazione (ove necessario) di nuovi training, l’aumento della produttività, e l’aumento della competitività aziendale. In seguito, è stata svolta un’analisi delle matrici di flessibilità, ovvero delle matrici che forniscono informazioni su quanti blue collars sono in grado di lavorare su determinate stazioni e in quale ruolo (operatore in training, operatore autonomo o operatore specializzato e quindi in grado di assumere il ruolo di trainer). Studiando tali matrici sono state identificate delle regole che rendono il processo di training on the job il più efficace ed efficiente possibile con o scopo, da una parte di evitare eccessive ore di training e quindi eccessivo dispendio economico, dall’altra, quello di riuscire a coprire tutte le stazioni considerando i picchi di assenteismo della forza lavoro. Infine, si è rivelata necessaria l’implementazione di un nuovo training, il “train the tutor”, ovvero un percorso di formazione riservato ai dipendenti potenzialmente in grado di insegnare attività in cui loro sono specializzati ad operatori in training.
Resumo:
Il primo modello matematico in grado di descrivere il prototipo di un sistema eccitabile assimilabile ad un neurone fu sviluppato da R. FitzHugh e J. Nagumo nel 1961. Tale modello, per quanto schematico, rappresenta un importante punto di partenza per la ricerca nell'ambito neuroscientifico delle dinamiche neuronali, ed è infatti capostipite di una serie di lavori che hanno puntato a migliorare l’accuratezza e la predicibilità dei modelli matematici per le scienze. L’elevato grado di complessità nello studio dei neuroni e delle dinamiche inter-neuronali comporta, tuttavia, che molte delle caratteristiche e delle potenzialità dell’ambito non siano ancora state comprese appieno. In questo lavoro verrà approfondito un modello ispirato al lavoro originale di FitzHugh e Nagumo. Tale modello presenta l’introduzione di un termine di self-coupling con ritardo temporale nel sistema di equazioni differenziali, diventa dunque rappresentativo di modelli di campo medio in grado di descrivere gli stati macroscopici di un ensemble di neuroni. L'introduzione del ritardo è funzionale ad una descrizione più realistica dei sistemi neuronali, e produce una dinamica più ricca e complessa rispetto a quella presente nella versione originale del modello. Sarà mostrata l'esistenza di una soluzione a ciclo limite nel modello che comprende il termine di ritardo temporale, ove tale soluzione non può essere interpretata nell’ambito delle biforcazioni di Hopf. Allo scopo di esplorare alcune delle caratteristiche basilari della modellizzazione del neurone, verrà principalmente utilizzata l’impostazione della teoria dei sistemi dinamici, integrando dove necessario con alcune nozioni provenienti dall’ambito fisiologico. In conclusione sarà riportata una sezione di approfondimento sulla integrazione numerica delle equazioni differenziali con ritardo.
Resumo:
Tra le finalità della logistica vi è la riduzione del Material Handling che ha come ambizione la consegna diretta del materiale dal fornitore alle linee di produzione. Il presente lavoro di tesi ha come obiettivo quello di attaccare determinate perdite messe in luce dal Cost Deployment Logistico, attraverso un progetto mirato, all’interno dello stabilimento produttivo di Whirlpool EMEA S.p.A. a Melano. Le perdite in questione riguardano l’inefficienza del flusso logistico interno relativo alle linee che producono piani cottura gas. In particolare, il Kaizen messo in atto va ad eliminare dal ciclo di lavoro dei repacker, alcune operazioni di riconfezionamento interno, che vengono riassegnate, in funzione della conformazione del packaging primario e secondario delle famiglie di componenti, rispettivamente agli operatori tuggeristi e carrellisti. In questo modo viene da un lato evitato il tocco superfluo di un operatore con conseguente riduzione del tempo di movimentazione totale di alcune famiglie di componenti, dall’altro vi è un maggior bilanciamento della saturazione di tutte le figure coinvolte nel processo di consegna materiale in senso lato. Il progetto ha portato dunque a una ridistribuzione delle attività tra gli operatori logistici coinvolti con conseguente necessità di un relayout delle aree picking gas. Grazie al progetto è stato diminuito il monte ore necessario all’attività di repackaging con corrispondente risparmio economico annuo. Il lavoro si è occupato anche dell’implementazione di un’automazione: due robot AMR. Gli AMR robot, oltre a permettere il raggiungimento degli obiettivi economici, hanno portato ad una migliore configurazione del ciclo dei tuggeristi, che risulta ridotto in termine di percentuale di operazioni a non valore aggiunto (NVAA).
Resumo:
La tesi si suddivide in tre capitoli. Nel primo capitolo viene presentata una prima dimostrazione della disuguaglianza di Sobolev. La prova del Capitolo 1 si basa in modo essenziale sul fatto che R^ n è prodotto cartesiano di R per se stesso n volte. Nel Capitolo 2 si introducono i cosiddetti potenziali di Riesz Iα, con 0 < α < n che sono una tra le più importanti classi di operatori di convoluzione. Vediamo come sia possibile legare la teoria di questi operatori di tipo integrale frazionario a formule di rappresentazione . Il teorema principale di questo capitolo è il teorema di Hardy-Littlewood-Sobolev: si forniscono stime in norma L^p per tali operatori. La prova di tale teorema che qui abbiamo fornito segue l’idea di dimostrazione di Hedberg ed è basata sull’uso della disuguaglianza di Holder e sulle stime per la funzione massimale di Hardy-Littlewood. Le stime per il nucleo di Riesz I_1 sono state utilizzate nel Capitolo 3 per dimostrare le disuguaglianze di Sobolev e Poincaré nel caso p ∈]1, n[. Il caso p = 1 viene trattato a parte in quanto, nel caso p = 1, il teorema di Hardy-Littlewood- Sobolev fornisce solo una stima di tipo debole per il nucleo di Riesz I_1. Questo tipo di approccio, mediante le formule di rappresentazione, ha il vantaggio che può essere adattato a contesti geometrici diversi da quello Euclideo e a misure diverse della misura di Lebesgue. Infine, sempre nel Capitolo 3 abbiamo dato un breve cenno del collegamento che si ha tra la disuguaglianza di Sobolev nel caso p=1 e il problema isoperimetrico in R^n.