489 resultados para campo centrale, problema dei due corpi, sistemi binari, sistema solare
Resumo:
In questa tesi viene considerato il problema dei trasporti con costi fissi (FCTP) che, assieme al Traveling Salesman Problem (TSP), è uno dei problemi nobili dell’ottimizzazione combinatoria. Esso generalizza il ben noto problema dei trasporti (TP) imponendo che il costo per spedire prodotti da un’origine ad una destinazione sia composto da un costo fisso ed un costo proporzionale alla quantità spedita. Il FCTP è stato formulato per la prima volta in un articolo di Hirsch e Dantzig (1968) ed è stato da allora oggetto di studio per la ricerca di nuovi e sempre migliori algoritmi di risoluzione. Nessuno dei metodi esatti fin ora pubblicati è in grado di risolvere istanze con più di 15 origini e 15 destinazioni. Solo recentemente, Roberti et al. (2013), in un paper in corso di pubblicazione, hanno presentato un metodo esatto basato su una nuova formulazione matematica del problema, il quale è in grado di risolvere istanze di FCTP con 70 origini e 70 destinazioni. La crescita esponenziale dello sforzo computazionale richiesto dai metodi esatti ne ha confinato l’applicazione a problemi di dimensioni ridotte. Tali limitazioni hanno portato allo studio e alla ricerca di approcci approssimativi, euristici e metaeuristici i quali sfruttano varie strategie di local search. Fra i molteplici metodi euristici presentati in letteratura, meritano particolare attenzione quelli di Sun et al. (1998) e Glover et al. (2005). Recentemente, Buson et al. (2013) hanno presentato un nuovo euristico che domina tutti i precedenti sui problemi test proposti in letteratura. In questa tesi viene presentato un approccio Tabu Search che migliora il metodo originalmente proposto da Sun et al. (1998). I risultati computazionali ottenuti con un codice prototipale indicano che l’algoritmo sviluppato è migliore del metodo originario di Sun et al. (1998) e competitivo con il più recente metodo proposto da Buson et al. (2013).
Resumo:
Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.
Resumo:
In questo lavoro è stata svolta l'analisi chimica differenziale di 22 sistemi binari monitorati nel corso della survey SARG. L'obiettivo è determinare eventuali differenze di abbondanza e porre limiti osservativi a uno degli scenari attualmente accreditato come responsabile del legame tra metallicità della stella e presenza di pianeti giganti.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
L'elaborato di tesi approfondisce il tema dei sistemi ERP all'interno dell'aziende svolgendo una presentazione di questi e del recente sviluppo della Enterprise Mobility secondo la strategia Mobile First. E' stata poi realizzata un'approfondita analisi della letteratura scientifica rispetto alle tecniche utili a scegliere il sistema ERP più adatto alle necessità del business aziendale. Infine è stato presentato il caso di un'implementazione di un sistema ERP all'interno di un'azienda operante nel settore industriale comprendente una presentazione dello stato attuale AS-IS e dello scenario futuro TO-BE.
Resumo:
Un'anomalia della curva di luce di un evento di microlensing può indicare la presenza di una lente composta da un sistema stella-pianeta. Quindi questo effetto si può utilizzare come tecnica per la ricerca di esopianeti. Partendo dallo studio teorico dei fondamenti del lensing gravitazionale e del microlensing, la tesi di laurea presentata include il lavoro di analisi svolto durante il tirocinio curriculare. Lo scopo di questo lavoro è stato sviluppare un modello per la curva di luce dell'evento OB171226 rilevato nel 2017 dai dati di quattro telescopi terrestri (OGLE e KMTNet) ed uno spaziale (Spitzer), grazie al quale si è visto come questo probabilmente non sia un sistema di tipo planetario ma composto da due stelle compagne di diversa massa. Questa evento era già stato studiato ma lo sviluppo ulteriore fatto è stato modellizzarlo considerando anche il moto orbitale dei due corpi e l'effetto di parallasse da satellite per i dati spaziali.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
La tesi si pone l'obiettivo di analizzare e approfondire il principio dei lavori virtuali, un importante strumento per la ricerca delle condizioni di equilibrio di un sistema meccanico. L'intera trattazione si svolge nell'ambito della meccanica classica e in un primo momento l'analisi si concentra in ambito statico, successivamente verrà ampliata in ambito dinamico, fino ad enunciare il principio di D'Alembert. Tale principio permette di ricondurre un qualsiasi problema di dinamica ad un equivalente problema di statica, fornendo un metodo generale per lo studio del moto di un qualunque sistema meccanico. La tesi si conclude con un approfondimento storico, in cui si evidenziano le tappe salienti e le personalità matematiche che hanno contribuito all'enunciazione ultima dei due principi citati.
Resumo:
L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.
Resumo:
Scopo di questa tesi è la trattazione del Principio dei lavori virtuali, il quale si inserisce nel contesto della meccanica classica dei sistemi di punti materiali. Tale principio viene utilizzato per affrontare problemi di statica quali l'equilibrio di un sistema meccanico, ma risulta centrale anche nel contesto più generale della dinamica. Per quanto riguarda i problemi di statica, il principio dei lavori virtuali è un metodo alternativo alle equazioni cardinali, che rappresentano una condizione necessaria e sufficiente per l'equilibrio dei soli corpi rigidi, quindi si occupano di un contesto più limitato.
Resumo:
La realizzazione di cinque sezioni stratigrafiche nel territorio padano, orientate SSW-NNE e con profondità di circa 200 m, ha consentito lo studio della successione sedimentaria tardo-quaternaria della Pianura Padana centrale e dei suoi acquiferi, in particolare quelli più superficiali. La ricostruzione, ottenuta utilizzando le stratigrafie di pozzi per acqua fornite dall’archivio del Servizio Geologico, Sismico e dei Suoli di Regione Emilia-romagna, ha permesso di evidenziare una ciclicità deposizionale del 4° ordine, controllata da fattori glacio-eustatici. Grazie al riconoscimento di cicli trasgressivo-regressivi sono stati individuati cinque subsintemi corrispondenti ad altrettanti complessi acquiferi. La ricostruzione di pattern ciclici all’interno del Bacino Padano ha permesso la ricostruzione geometrica dei corpi sedimentari di channel-belt del Fiume Po, spessi corpi sabbiosi confinati da materiale impermeabile in cui sono contenute le falde acquifere. Alle informazioni stratigrafiche e litologiche si è unito lo studio delle caratteristiche idrochimiche ed isotopiche degli acquiferi, in modo tale da ottenere una chiave di lettura integrata dei depositi padani. Basandosi sulle diverse caratteristiche isotopiche delle acque è possibile risalire alla provenienza delle acque negli acquiferi. In questo modo si ottengono informazioni circa le modalità di ricarica dell'acquifero e la sorgente della ricarica. Un'applicazione secondaria di questo metodo è la verifica della vulnerabilità degli acquiferi padani. Lo studio delle facies idrochimiche è stato sovrapposto a quello dei valori isotopici delle acque, con l'obiettivo di definire una correlazione tra i due fattori chimici all’interno degli acquiferi. L'obiettivo di questa correlazione è quello di identificare la provenienza di un'acqua di ricarica senza la necessità di dati di natura isotopica.
Resumo:
Il presente lavoro prende le mosse da un problema di dinamica dei fasci relativo a un metodo di separazione di un fascio di particelle recentemente messo in funzione nell’sincrotrone PS al CERN. In questo sistema, variando adiabaticamente i parametri di un campo magnetico, nello spazio delle fasi si creano diverse isole di stabilità (risonanze) in cui le particelle vengono catturate. Dopo una parte introduttiva in cui si ricava, a partire dalle equazioni di Maxwell, l’hamiltoniana di una particella sottoposta ai campi magnetici che si usano negli acceleratori, e una presentazione generale della teoria dell’invarianza adiabatica, si procede analizzando la dinamica di tali sistemi. Inizialmente si prende in considerazione l’hamiltoniana mediata sulle variabili veloci, considerando perturbazioni (kick) dei termini dipolare e quadrupolare. In ognuno dei due casi, si arriva a determinare la probabilità che una particella sia catturata nella risonanza. Successivamente, attraverso un approccio perturbativo, utilizzando le variabili di azione ed angolo, si calcola la forza della risonanza 4:1 per un kick quadrupolare.