123 resultados para Carlo Ludovico, duca di Lucca, 1799-1883
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
La costante ricerca e lo sviluppo nel campo degli azionamenti e dei motori elettrici hanno portato ad una loro sempre maggiore applicazione ed utilizzo. Tuttavia, la crescente esigenza di sistemi ad alta potenza sempre più performanti da una parte ha evidenziato i limiti di certe soluzioni, dall’altra l’affermarsi di altre. In questi sistemi, infatti, la macchina elettrica trifase non rappresenta più l’unica soluzione possibile: negli ultimi anni si è assistito ad una sempre maggiore diffusione di macchine elettriche multifase. Grazie alle maggiori potenzialità che sono in grado di offrire, per quanto alcune di queste siano ancora sconosciute, risultano già essere una valida alternativa rispetto alla tradizionale controparte trifase. Sicuramente però, fra le varie architetture multifase, quelle multi-trifase (ovvero quelle con un numero di fasi multiplo di tre) rappresentano una soluzione particolarmente vantaggiosa in ambito industriale. Infatti, se impiegate all’interno di architetture multifase, la profonda conoscenza dei tradizionali sistemi trifase consente di ridurre i costi ed i tempi legati alla loro progettazione. In questo elaborato la macchina elettrica multi-trifase analizzata è una macchina sincrona esafase con rotore a magneti permanenti superficiali. Questa particolare tipologia di macchina elettrica può essere modellizzata attraverso due approcci completamente differenti: uno esafase ed uno doppio trifase. Queste possibilità hanno portato molti ricercatori alla ricerca della migliore strategia di controllo per questa macchina. L’obiettivo di questa tesi è di effettuare un’analisi comparativa tra tre diverse strategie di controllo applicate alla stessa macchina elettrica multi-trifase, analizzandone la risposta dinamica in diverse condizioni di funzionamento.
Resumo:
The established isotropic tomographic models show the features of subduction zones in terms of seismic velocity anomalies, but they are generally subjected to the generation of artifacts due to the lack of anisotropy in forward modelling. There is evidence for the significant influence of seismic anisotropy in the mid-upper mantle, especially for boundary layers like subducting slabs. As consequence, in isotropic models artifacts may be misinterpreted as compositional or thermal heterogeneities. In this thesis project the application of a trans-dimensional Metropolis-Hastings method is investigated in the context of anisotropic seismic tomography. This choice arises as a response to the important limitations introduced by traditional inversion methods which use iterative procedures of optimization of a function object of the inversion. On the basis of a first implementation of the Bayesian sampling algorithm, the code is tested with some cartesian two-dimensional models, and then extended to polar coordinates and dimensions typical of subduction zones, the main focus proposed for this method. Synthetic experiments with increasing complexity are realized to test the performance of the method and the precautions for multiple contexts, taking into account also the possibility to apply seismic ray-tracing iteratively. The code developed is tested mainly for 2D inversions, future extensions will allow the anisotropic inversion of seismological data to provide more realistic imaging of real subduction zones, less subjected to generation of artifacts.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Sulla base di una riflessione sull’utilità delle note del traduttore si è cercato di capire a che cosa fossero necessarie: sono davvero da considerare come un elemento estraneo al testo? Perché il traduttore decide di uscire dal suo ruolo di terzo, perdendo l’anonimato che gli fornisce il suo ruolo di semplice mediatore? Per rispondere a queste domande, ho deciso di creare un corpus di letteratura italiana in traduzione francese rilevando sistematicamente in quarantadue testi contemporanei le note inserite. In un secondo tempo ho classificato sia le parole che hanno dato luogo ad una nota che la tipologia di note fornite. Questa indagine mi ha permesso di avere una migliore idea delle modalità di inserimento di informazioni e della loro importanza.
Resumo:
Per contrastare gli effetti dell’ormai inequivocabile cambiamento climatico che sta affliggendo il pianeta, nel 2015 l’Accordo di Parigi ha fissato gli obiettivi per intraprendere il processo di decarbonizzazione del settore energetico a livello mondiale. Nell’operare tale transizione risulta fondamentale individuare soluzioni alternative, che conducano principalmente all’abbattimento delle emissioni di gas serra ed altri inquinanti, e che siano allo stesso tempo in grado di assicurare il proseguimento del progresso economico. L’idrogeno, compatibile con l’impiego in un ampio ventaglio di applicazioni, può assumere un ruolo determinante nel raggiungimento di questi traguardi. Nel presente elaborato viene dunque delineata una panoramica complessiva inerente a tale tematica, dando rilievo alle tecnologie di generazione dell'idrogeno a basso impatto ambientale, in particolare quelle riguardanti l’elettrolisi dell’acqua, realizzabili attraverso l’impiego di energia elettrica generata da fonti rinnovabili. La trattazione prosegue con la presentazione del caso di studio, incentrato sull’utilizzo di idrometano, una miscela di gas naturale addizionata ad idrogeno, per la produzione di energia tramite l’impiego di quest’ultimo all’interno di un gruppo turbogas. Viene quindi eseguita una valutazione tecnico-economica, in riferimento all’industria cartiera del gruppo Pro-Gest di Mantova, riguardante la convenienza dell’installazione di un impianto per la produzione locale di idrogeno verde, destinato ad autoconsumo all’interno di una centrale cogenerativa. Il raggiungimento della competitività economica di soluzioni di natura simile a quelle esposte in questo elaborato, basate sullo sfruttamento di risorse rinnovabili, rappresenterebbe un grande passo in avanti per quanto riguarda la realizzabilità di una completa transizione ad un sistema energetico più sostenibile.
Resumo:
Il lavoro di tesi ha avuto come obbiettivo quello di indagare il corpo normativo, lo stato dell’arte sulla gestione patrimoniale anche attraverso l’analisi di alcune esperienze condotte in Italia, per definire l’approccio metodologico e gli strumenti per la valorizzazione del patrimonio immobiliare disponibile di un Ente pubblico, applicata al caso studio del comune di Bologna, con la collaborazione del Dipartimento Lavori Pubblici, Verde, Mobilità e Patrimonio ed in particolare con il Settore Patrimonio. L’indagine si è concentrata sulla sezione dei fabbricati del patrimonio edilizio comunale e non sui terreni, in quanto ritenuta più interessante ai fini della valorizzazione. Il patrimonio immobiliare del comune di Bologna, secondo il materiale fornito, è composto da circa 1800 unità di varia natura e dimensione; tuttavia la maggior parte di queste proprietà fanno parte del patrimonio indisponibile. Il presente lavoro, ha riguardato il patrimonio disponibile distribuito su tutto il territorio metropolitano di Bologna, per il quale è stata condotta l’indagine per fornire gli elementi necessari per sviluppare alternative per la sua valorizzazione. L’analisi condotta sul patrimonio disponibile del comune di Bologna, nonostante le varie selezioni effettuate sull’elenco fornito, ha portato ad individuare un numero considerevole di immobili valorizzabili, per i quali è emerso uno stato di conoscenza generale piuttosto scarso. E’ emersa quindi la difficoltà da parte dell’amministrazione di occuparsi degli immobili, che non sono direttamente utilizzati a fini istituzionali per la loro messa a reddito, nonostante si abbiano a disposizione strumenti normativi specifici per questo tipo di operazioni.
Resumo:
Lo scopo di questo lavoro è lo sviluppo, mediante il linguaggio di programmazione Python, di un applicativo per il calcolo e la visualizzazione di frequenze naturali per strutture e cavità. L’applicativo consiste di un’interfaccia grafica e di una libreria nella quale si trovano le diverse tipologie di strutture e cavità presenti in letteratura. I vari sistemi possono essere vincolati da diverse condizioni al contorno e sono inoltre costituiti da materiali isotropi, nel caso di strutture, e fluidi, nel caso di cavità. La prima parte del lavoro comprende la codifica delle soluzioni analitiche per l’analisi modale. La seconda fase è, invece, incentrata sulla validazione del codice, utilizzando un software commerciale per la comparazione di frequenze naturali e forme dei modi.
Resumo:
Il perfezionamento dei campi di forza in meccanica molecolare, necessario per migliorare l’accuratezza della modellazione classica di materiali, è un procedimento dispendioso. L’accuratezza dei campi di forza è tuttavia la chiave per la predizione affidabile di proprietà chimico-fisiche dalle simulazioni MD. A questo scopo, risulta importante l’inclusione esplicita della polarizzazione, trascurata nei campi di forze tradizionali. Il modello dell’oscillatore di Drude rappresenta una soluzione computazionalmente conveniente ed è implementato in diversi software di simulazione. In questo modello, la polarizzazione atomica è resa dall’introduzione di una particella carica e di massa ridotta, ancorata all’atomo polarizzabile. In questo lavoro di tesi abbiamo sviluppato una procedura per ottenere un campo di forza polarizzabile per molecole organiche in fase liquida, prendendo in esame un solvente polare molto comune: l’acetonitrile. Il nostro approccio si serve di calcoli quantomeccanici preliminari per la determinazione dei valori di riferimento di alcune proprietà molecolari: le cariche parziali atomiche, il momento di dipolo e la polarizzabilità. A questi calcoli seguono due fasi di parametrizzazione basate su algoritmi di minimizzazione. La prima fase riguarda la parametrizzazione delle polarizzabilità atomiche descritte con il modello di Drude e ha come scopo la riproduzione della polarizzabilità molecolare quantomeccanica. Nella seconda fase, si sono ottimizzati i parametri del potenziale Lennard-Jones in modo da riprodurre la densità sperimentale a temperatura e pressione ambiente, ottenendo diverse parametrizzazioni del campo di forza polarizzabile. Infine, queste parametrizzazioni sono state confrontate sulla base della loro capacità di riprodurre alcune proprietà di bulk, quali entalpia di vaporizzazione, costante dielettrica, coefficiente di diffusione e specifiche funzioni di distribuzione radiale.
Resumo:
Il progetto alla base della presente tesi è stato sviluppato all’interno di Raviplast, società cooperativa nata nel 2013 dall’intenzione di un gruppo di lavoratori e tecnici di grande professionalità di dare seguito ad una lunga storia industriale. Raviplast si occupa della produzione di imballaggi flessibili in polietilene a bassa densità (LDPE), in particolare sacchi collati, saldati, a valvola, a tasca, a bocca aperta, tubolari e cappucci monopiega. L’intera gamma di prodotti viene ottenuta attraverso un unico processo industriale cioè la co-estrusione a bolla di film. All’interno di questo elaborato di tesi verrà descritto come le proprietà meccaniche, termiche e chimiche di prodotti formati da polietilene a bassa densità vergine differiscano rispetto a quelle di un prodotto con percentuale di polietilene a bassa densità riciclato crescente. Nel corso dell’esperienza sono state indagate le caratteristiche del granulo di polimero vergine riciclato per verificare l’omogeneità di proprietà come temperatura di fusione, densità e melt flow index (MFI), e poter operare al meglio la produzione. Sul prodotto finito, sia vergine che rigenerato, sono state testate la trazione longitudinale e trasversale al dinamometro, la temperatura di fusione tramite calorimetria differenziale a scansione (DSC) e prove ad impatto tramite caduta di dardo. Le proprietà indagate sono state confrontate per valutare con occhio critico quali accorgimenti adottare nel corso della produzione.
Resumo:
In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.
Resumo:
La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.
Resumo:
La tesi descrive un modello AIMMS di ottimizzazione dei flussi di potenza tra gli utenti di una comunità energetica rinnovabile. Il modello considera la presenza nella stessa rete di distribuzione di più comunità energetiche. Ogni utente può scegliere un fornitore diverso dagli altri anche se partecipa ad una comunità. Sono considerati generatori fotovoltaici e sistemi di accumulo. Per i carichi sono stati generati profili tipici di utenze domestiche. Il modello è in grado di valutare i prezzi delle transazioni di energia interne a ciascuna comunità, in base alle tariffe orarie dei fornitori di energia. Per la rete di distribuzione test IEEE a 123 nodi, la tesi presenta una analisi di sensitività al variare della taglia dei sistemi di accumulo, della potenza di picco dei generatori fotovoltaici, della potenza richiesta dai carichi, del numero di comunità energetiche e dei fornitori.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.