1000 resultados para gruppi di Lie teoria delle rappresentazioni analisi armonica su SU(2)
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Si inizia generalizzando la teoria dei gruppi a categorie qualsiasi, quindi senza necessariamente un insieme sostegno, studiando anche i cogruppi, ovvero gli oggetti duali dei gruppi, e caratterizzando in termini categoriali tali strutture. Vengono poi studiati oggetti topologici con la struttura di gruppo generalizzato vista inizialmente, compatibile con la struttura topologica. L'utilità degli H-gruppi e dei co-H-gruppi è specialmente in topologia algebrica, dove la struttura di questi oggetti fornisce molte informazioni sul loro comportamento, in termini di gruppi di omotopia e di più generici gruppi di mappe fra loro e altri spazi. Vengono poi dati esempi di questi oggetti, e si studia come i co-H-gruppi, in particolare, permettono di definire i gruppi di omotopia e di dimostrare i risultati fondamentali della teoria dell'omotopia.
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
Resumo:
Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.
Resumo:
Nel campo della Ricerca Operativa e dei problemi di ottimizzazione viene presentato un problema, denominato Bus Touring Problem (BTP), che modella una problematica riguardante il carico e l’instradamento di veicoli nella presenza di di vincoli temporali e topologici sui percorsi. Nel BTP, ci si pone il problema di stabilire una serie di rotte per la visita di punti di interesse dislocati geograficamente da parte di un insieme di comitive turistiche, ciascuna delle quali stabilisce preferenze riguardo le visite. Per gli spostamenti sono disponibili un numero limitato di mezzi di trasporto, in generale eterogenei, e di capacitá limitata. Le visite devono essere effettuate rispettando finestre temporali che indicano i periodi di apertura dei punti di interesse; per questi, inoltre, é specificato un numero massimo di visite ammesse. L’obiettivo é di organizzare il carico dei mezzi di trasporto e le rotte intraprese in modo da massimizzare la soddisfazione complessiva dei gruppi di turisti nel rispetto dei vincoli imposti. Viene presentato un algoritmo euristico basato su Tabu Search appositamente ideato e progettato per la risoluzione del BTP. Vengono presentati gli esperimenti effettuati riguardo la messa appunto dei parametri dell'algoritmo su un insieme di problemi di benchmark. Vengono presentati risultati estesi riguardo le soluzioni dei problemi. Infine, vengono presentate considerazioni ed indicazioni di sviluppo futuro in materia.
Resumo:
I pattern di espressione genica permettono di valutare se gli organismi siano soggetti a stress ambientali, spesso associati a stress ossidativo e produzione di specie reattive dell’ossigeno, che possono essere analizzate per studiare gli effetti sub-letali indotti dall’ambiente negli organismi. Scopo di questa ricerca è stato valutare la possibilità di utilizzo dell’ascidia coloniale B. schlosseri come biomarker in ambiente lagunare. Le colonie, esposte a diverse condizioni ambientali nella Laguna di Venezia, sono state confrontate con esemplari allevati in condizioni di controllo. La ricerca si è concentrata in 2 siti con diverso grado di idrodinamicità e impatto antropico. Mentre nel sito 1, più vicino alla bocca di porto, si è rilevata la presenza di Tunicati, il sito 2 ne è privo. Il sito 2 ha registrato valori di pH e temperatura più alti. Inoltre, nel sito 2 è stata rilevata una mortalità maggiore delle colonie e alterazioni della morfologia nelle colonie sopravvissute. Ciò suggerisce che il sito 2 presenti condizioni avverse per B. schlosseri. Sui campioni di B. schlosseri sono state eseguite PCR semiquantitative per analizzare l’espressione di un gruppo di geni coinvolto nella risposta allo stress ossidativo: la glutammato cistein ligasi la glutatione sintetasi, 2 isoforme di glutatione perossidasi e la superossido dismutasi (SOD). Tutti i geni presentano livelli di trascrizione doppi nelle colonie del sito 1 rispetto al controllo. Viceversa, il sito 2 mostra livelli di espressione di poco superiori al controllo. Analisi spettrofotometriche evidenziano che le attività enzimatiche di SOD e catalasi sono più alte nel sito 2 rispetto al sito 1. Si può pertanto ipotizzare che le colonie esposte al sito 2 siano soggette a un maggiore stress. B. schlosseri appare dunque un buon indicatore dello stato ecologico dell’ambiente lagunare, entro parametri di pH e temperatura in cui abitualmente vive.
Resumo:
Le funzioni generalizzate sono uno strumento matematico che trova la sua applicazione fisica quando si trattano problemi con discontinuità o singolarità. Risulta perciò necessario formulare una teoria in grado di descrivere completamente questi oggetti e le loro proprietà. Nella teoria delle funzioni generalizzate il problema del loro prodotto è tuttora aperto poiché non esiste un metodo univoco per dare la definizione tra questi oggetti. Lo scopo di questo elaborato è di presentare la teoria delle funzioni generalizzate e i problemi legati al loro prodotto per poi presentare due metodi per affrontarlo, con esempi e risultati di particolare interesse. Vengono mostrati infine alcuni esempi fisici dove la soluzione richiede l'utilizzo di questo apparato matematico vertendo soprattutto sullo stretto legame tra il prodotto di funzioni generalizzate e la procedura della rinormalizzazione nella teoria dei campi quantistici.
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.
Resumo:
In questa tesi abbiamo studiato le forme reali di algebre e superalgebre di Lie. Il lavoro si suddivide in tre capitoli diversi, il primo è di introduzione alle algebre di Lie e serve per dare le prime basi di questa teoria e le notazioni. Nel secondo capitolo abbiamo introdotto le algebre compatte e le forme reali. Abbiamo visto come sono correlate tra di loro tramite strumenti potenti come l'involuzione di Cartan e relativa decomposizione ed i diagrammi di Vogan e abbiamo introdotto un algoritmo chiamato "push the button" utile per verificare se due diagrammi di Vogan sono equivalenti. Il terzo capitolo segue la struttura dei primi due, inizialmente abbiamo introdotto le superalgebre di Lie con relativi sistemi di radici e abbiamo proseguito studiando le relative forme reali, diagrammi di Vogan e abbiamo introdotto anche qua l'algoritmo "push the button".
Resumo:
In questo lavoro di tesi verrà presentato un applicativo, sviluppato con l’azienda EBWorld, per dispositivi con sistema operativo Android. L’applicazione ha come destinatari i tecnici e gli operatori sul campo di aziende clienti di EBWorld. Nel dispositivo vengono caricati i dati estratti dal database (porzioni di mappe e informazioni ad esse correlate) che vengono lette e mostrate nello schermo. Le funzionalità fornite sono: utilizzo dello strumento trail, per effettuare misurazioni; creazione di progetti all’interno delle esportazioni; inserimento di sketch, definiti in accordo con l’azienda, all’interno dei progetti; selezione degli sketch e delle informazioni estratte dal database e visualizzazione delle relative informazioni / proprietà; eliminazione di sketch inseriti. È stato effettuato uno studio di progettazione dell’interfaccia per offrire un’ottima usabilità anche in situazioni critiche.
Resumo:
La presenza di residui dei farmaci ad uso umano e veterinario nelle acque superficiali è in costante aumento a causa del loro elevato consumo. L’impatto ambientale dei prodotti farmaceutici è riconosciuto in tutto il mondo ma attualmente ancora non sono presenti degli Standard di qualità ambientale per queste sostanze in ambiente acquatico. L’agenzia europea per i farmaci (EMEA) ha introdotto delle linee guida per la valutazione del rischio ambientale per tutti i nuovi farmaci prima di provvedere alla registrazione, ma in nessun caso la loro autorizzazione in commercio è vietata. Una volta assunti, i farmaci sono escreti dagli organismi in forma nativa o come metaboliti, e attraverso gli scarichi urbani raggiungono i depuratori che li rimuovono solo in parte. Di conseguenza, i residui dei farmaci vengono ritrovati nei fiumi, nei laghi, fino alle acque marine costiere. Anche se presenti a basse concentrazioni (ng-μg/L) nelle acque superficiali, i farmaci possono provocare effetti avversi negli organismi acquatici. Queste specie rappresentano involontari bersagli. Tuttavia molti di essi possiedono molecole target simili a quelle dell’uomo, con i quali i farmaci interagiscono per indurre gli effetti terapeutici; in questo caso i farmaci ambientali possono causare effetti specifici ma indesiderati sulla fisiologia degli animali acquatici. Le interazioni possono essere anche non specifiche perché dovute agli effetti collaterali dei farmaci, ad esempio effetti ossidativi, con potenziali conseguenze negative su vertebrati ed invertebrati. In questo lavoro sono stati valutati i potenziali effetti indotti nelle larve di orata da quattro classi di farmaci ovvero: carbamazepina (antiepilettico), ibuprofene (antinfiammatorio non steroideo), caffeina (stimolante) e novobiocina (antibiotico). In particolare, in questo lavoro si è valutato inizialmente il tasso di sopravvivenza delle larve di orata esposte ai farmaci, per verificare se l’esposizione determinasse effetti di tossicità acuta; successivamente si è passati alla valutazione di due biomarker : il danno al DNA e la perossidazione lipidica per verificare la presenza di effetti tossici sub-letali. Le larve sono state esposte per 96 ore alle concentrazioni di 0.1, 1 (MEC), 10 e 50 µg/L (>MEC) di carbamazepina e novobiocina, a 0.1, 5 (MEC),10 e 50 µg/L (> MEC) di ibuprofene ed a 0.1, 5 (MEC),15 e 50 µg/L (> MEC) di caffeina, rappresentative delle concentrazioni riscontrate in ambiente acquatico e al di sopra di quest’ultimo. L’analisi dei dati sulla sopravvivenza ha dimostrato che la carbamazepina, l’ibuprofene, la novobiocina e la caffeina non hanno effetti significativi alle concentrazioni testate. La valutazione dei biomarker ha evidenziato un generale decremento significativo dei livelli di danno primario al DNA e per la perossidazione lipidica è stato generalmente osservato un decremento alle dosi dei farmaci più basse, seguito da un aumento a quelle più elevate. Nell’insieme i dati indicano che alle concentrazioni testate, i farmaci carbamazepina, caffeina, ibuprofene e novobiocina non hanno prodotto alterazioni attribuibili alla comparsa di effetti avversi nelle larve di S. aurata dopo 96 ore di esposizione.
Resumo:
Tesi rivolta allo studio del comportamento di Google Inc. nel campo delle lobby, in America ed in Europa: quanto investe nell'attività di lobbying, quali leggi vuole far approvare, perché è interessata a quel disegno di legge, differenze tra lobby americane ed europee e difficoltà incontrate in Europa.
Resumo:
Progettazione del nuovo layout per un nuovo stabilimento produttivo, in cui il gruppo Fiorini Industries S.r.l., in un'ottica di espansione e miglioramento dei parametri tecnici e dei flussi aziendali, si insedia lasciando la sua storica sede produttiva. Questo bisogno nasce dall'impossibilità di espansione dello stabilimento odierno e dalla necessità di ridurre i costi di movimentazione dei materiali durante il ciclo di produzione. La tesi si colloca in questo contesto di necessità di verificare le prestazioni del lay-out attuale, valutandone le problematiche e le criticità al fine di potere identificare delle valide soluzioni di layout per la nuova sede produttiva dal punto di vista tecnico-economico e ambientale. Il CAPITOLO1 è volto ad inquadrare il problema affrontato nella situazione odierna; mettendo in evidenza la rilevanza del lay-out. Viene poi spiegato in maniera approfondita l'approccio di progettazione seguito. Al CAPITOLO 2 spetta la presentazione dell'azienda, della sua storia, della sua gamma di prodotti e dei suoi reparti di lavorazione. L'inquadramento aziendale è necessario al fine di capire le esigenze aziendali di cui si dovrà tenere conto durante lo svolgimento del lavoro. Nel CAPITOLO 3 si procede con l'analisi della situazione attuale, recuperando i dati di input necessari alla determinazione del mix produttivo offerto al mercato, quindi con l'analisi dei cicli produttivi, dei flussi e delle risorse impiegate per le movimentazioni. Il CAPITOLO 4 illustra il nuovo polo industriale del gruppo e presenta le alternative di lay-out individuate, che vengono analizzate dal punto di vista economico per individuare il possibile saving economico annuo rispetto alla situazione attuale. Per completezza di informazione vengono presentate anche aree che non vengono progettate tramite l'analisi tecnico economica (Blocco 2 e Uffici). Il capitolo termina con la scelta del nuovo layout per la nuova sede, dove vengono studiati i saving annui in base ai mezzi di movimentazioni attuali e quelli implementabili. L'ultima parte dell'elaborato valuta le emissioni di anidride carbonica dovute alle movimentazioni interne e valuta la possibile riduzione di emissioni di CO2 con il nuovo layout.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.