359 resultados para Gruppi finitamente generati liberi
Resumo:
Con il presente elaborato, si vuole fornire un contributo alla conoscenza sul riutilizzo degli scarti derivanti dall’estrazione e lavorazione nelle cave di marmo, per aggiungere un’ulteriore tassello per arriva ad un’economia circolare anche in questo settore. Viene descritta la realtà del comprensorio apuo-versiliese, le cave e le tecnologie utilizzate per l’estrazione e le lavorazioni. Successivamente, viene presentata la regolamentazione europea e regionale sulla gestione e lo smaltimento dei rifiuti di cava, definiti rifiuti speciali. È stata presentata una breve sintesi delle regolamentazioni europee e regionali riguardanti l’attività estrattiva, con particolare riguardo alla problematica del trattamento dei rifiuti speciali dal punto di vista legislativo. Attraverso il caso della Cooperativa Apuana Vagli, si prende in esame uno studio reale dove analizzare le problematiche legate allo smaltimento dei rifiuti generati dall’attività estrattiva. Il materiale prodotto dai tagli dei blocchi in cava è stato campionato e sottoposto ad analisi granulometriche di laboratorio. Dai risultati è stato possibile ottenere le proprietà fisiche del materiale analizzato, grazie alle quali sono stati ipotizzati i possibili riutilizzi.
Resumo:
Il seguente lavoro di tesi è nato durante un’attività di stage della durata di 7 mesi svolto all’interno della divisione Tea&Coffe di IMA S.p.A., azienda leader mondiale nella produzione di macchine automatiche per il confezionamento di prodotti farmaceutici, cosmetici, alimentari, tè e caffè. Le attività svolte si collocano all’interno di un progetto avviato da IMA per promuovere il passaggio ad un modello di industria necessariamente più evoluta, facendo leva sull’attitudine ad integrare e sviluppare nuove conoscenze e nuove tecnologie interdisciplinari e, allo stesso tempo, di massimizzare la sinergia tra le dimensioni tecnica ed economica, comportando una reale riduzione di sprechi nella filiera produttiva, commerciale ed ambientale. I moderni impianti di produzione devono infatti affrontare una sfida che li vede alla continua ricerca della produttività, ovvero di una produzione che remuneri velocemente e con ampi margini gli investimenti effettuati, della qualità dei prodotti e dei processi di produzione, ovvero della garanzia di soddisfacimento delle aspettative espresse ed inespresse del cliente, e della sicurezza per la salvaguardia della collettività e dell’ambiente. L’obiettivo di questo elaborato è stato quello di effettuare lo studio affidabilistico di una macchina automatica per la produzione di bustine di tè al fine di poterne studiare il suo comportamento al guasto e di elaborare in un secondo momento le politiche manutentive ottimizzate che ne permettano una gestione più efficiente. In questo ambito la macchina è stata scomposta in gruppi e sono stati esaminati tutti i pezzi di ricambio che sono stati richiesti in un arco temporale di durata pari a dieci anni, il fine è quello di poter individuare ed effettuare un’analisi affidabilistica dei componenti critici per poi procedere, attraverso l’uso di piattaforme software quali Weibull++ e Blocksim, col modellarne le distribuzioni statistiche e simulare il funzionamento del sistema nel suo complesso.
Resumo:
Secondo la sismologia storica, Venezia non è mai stata colpita in modo diretto da terremoti nel suo immediato sottosuolo, tuttavia ha riportato diversi danni in occasione di terremoti limitrofi. Nella presente tesi è stato studiato il comportamento sotto sisma di due principali opere veneziane: il ponte degli Scalzi (1934) eretto da E. Miozzi e il ponte della Costituzione (2008), disegnato da S. Calatrava. Accoppiando il modello dinamico dei due ponti con lo spettro di risposta del sito, abbiamo riscontrato che il ponte della Costituzione si colloca nel plateau dello spettro, quindi a periodi per i quali l’accelerazione attesa sulla struttura è massima. Questo non depone a favore della sua sicurezza, considerati anche i problemi statici che la struttura presenta. Il ponte degli Scalzi presenta invece una rigidezza tale da non mostrare amplificazione significativa tra il moto alla fondazione e quello della struttura sovrastante. Le misure di microtremore ambientale effettuate sul sottosuolo in prossimità delle fondazioni dei due ponti hanno mostrato che esso amplifica il moto per risonanza a 0.5 Hz. Questa frequenza è sufficientemente lontana da quelle proprie dei due ponti in esame, per cui si può ritenere che non ne influenzi significativamente la dinamica. Infine, abbiamo osservato che i valori di accelerazione verticale misurati sulla sua sommità del ponte della Costituzione, generati principalmente dal traffico pedonale, superano i limiti di comfort proposti dall’Eurocodice EN UNI 1990.
Resumo:
Il mio elaborato, partendo dalla scoperta di un nuovo materiale, il grafene, ne illustra le caratteristiche, la produzione, la distribuzione e le applicazioni. Lo studio è stato condotto tramite l' utilizzo di fonti bibliografiche e sitografiche , con lo scopo di far conoscere questo nuovo materiale e di illustrarne le potenzialità e le forme di utilizzo, in particolare in ambito biomedico. Si illustreranno nel dettaglio le sue proprietà fisiche e chimiche, descrivendo alcuni metodi sperimentali con i quali viene sintetizzato. In particolare, vedremo nel dettaglio la tecnica sperimentale di sintesi, chiamata Chemical Vapour Deposition, e il successivo trasferimento del grafene prodotto su diversi substrati adatti per la sua caratterizzazione. Inoltre, analizzeremo lo sfruttamento tecnologico di questo materiale e le varie possibilità di creare nuovi compositi. Sono state svolte alcune considerazioni non solo sugli scenari attuali, ma anche su quelli futuri, mettendo in luce le ricerche e le tecniche di produzione nell'ambito di una vasta gamma di applicazioni. Il lavoro svolto è stato possibile grazie all' interesse crescente per il grafene che ha portato, il 28 gennaio 2013, la Comunità Europea ad approvare i due più grandi progetti mai finanziati in Europa. Tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 143 gruppi di ricerca da 23 Stati Europei con un budget di 1000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene.
Resumo:
Lo studio svolto si propone di stabilire quali sono le condizioni di gestione ottimale del sistema di depurazione dei fumi dell’impianto di termovalorizzazione di Rimini, situato nel comune di Coriano e gestito da Herambiente, una società nata nel 2009 nell'ambito del Gruppo Hera, una delle più importanti multiutility italiane che opera nei servizi dell’ambiente, dell’acqua e dell’energia. Il sistema di depurazione dell’impianto è composto da un doppio stadio di abbattimento a secco in cui si dosa calce (Ca(OH)2), al primo stadio, e bicarbonato di sodio (NaHCO3), al secondo. Rispetto alla calce, il bicarbonato garantisce una migliore efficienza di abbattimento dei gas acidi (HCl, SO2, HF), ma ha un prezzo d’acquisto maggiore. Da tale considerazione ha origine il problema di ottimizzazione economica: è necessario individuare una soluzione che consenta di ridurre il consumo e la spesa dei reagenti utilizzati senza alterare le emissioni di inquinanti a camino. I costi operativi legati alla gestione del sistema di depurazione, inoltre, devono tenere in considerazione anche la produzione dei residui solidi generati nei due stadi di abbattimento. Il calcolo di ottimizzazione è stato eseguito utilizzando un modello matematico in grado di prevedere il comportamento dei sistemi reagenti nei due stadi di abbattimento tramite la conoscenza di un parametro empirico. Dopo aver calibrato il modello con i dati di funzionamento dell’impianto, è possibile procedere alla sua implementazione al fine di valutare, in diversi periodi dell’anno 2015, come variano i costi operativi totali in funzione della conversione di HCl (gas acido più critico) al primo stadio di abbattimento e individuare quindi la migliore condizione economico-operativa per ciascun periodo considerato.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di approfondire i processi di rigenerazione cosiddetti bottom-up o dal basso, poiché sono promossi da gruppi di cittadini, associazioni, cooperative o altre forme del terzo settore, che, esprimendo le proprie esigenze ed idee innovative, ottengono poi approvazione dall’amministrazione o dai proprietari dei beni. Si tratta di un fenomeno ancora poco presente in letteratura, poiché piuttosto recente e tuttora riscontrabile in maniera spontanea e disorganica. Per questo motivo una congrua parte della ricerca si è concentrata sull’analisi di casi studio italiani, per i quali sono state eseguite interviste ai protagonisti e sopralluoghi al fine di comprendere nel dettaglio il processo di riattivazione. A questi, si sono poi studiati alcuni esempi di realtà associative che mirano a mappare e a sistematizzare il fenomeno dell’abbandono architettonico. Sebbene le esperienze si siano dimostrate differenti tra loro e specifiche per il contesto e il territorio in cui sono collocate. si sono tuttavia individuate caratteristiche e dinamiche comuni che inducono a pensare a una tipologia di processo. Alla luce delle analisi dei casi studio, si è formulata una strategia possibile per un edificio che pur serbando valore storico e grandi potenzialità, si trova in stato di abbandono da più di quaranta anni: Villa Ghigi a Bologna. Si tratta di un’ex-villa padronale, all’interno di uno dei più importanti parchi pubblici bolognesi per la sua varietà vegetale e animale e per la sua posizione prossima al centro storico. Il progetto-processo che si propone si fonda su ipotesi realistiche e concrete di rigenerazione e si sviluppa secondo cinque fasi temporali differenti. Nell’iter si è infatti previsto l’alternarsi di momenti più astratti, incentrati sul networking e la definizione di prospettive, con tempi più fisici. dedicati all’intervento architettonico e alle trasformazioni concrete.
Resumo:
Le piante e gli animali presentano elementi comuni nel loro sistema di difesa contro gli agenti patogeni, come la sintesi diretta di enzimi idrolitici (chitinasi, glucanasi, proteinasi e ossidasi) e di peptidi antimicrobici (AMPs). Gli AMPs sono peptidi ampiamente espressi negli organismi animali (vertebrati e invertebrati) e nelle piante. Possono essere espressi costitutivamente o rapidamente indotti inseguito ad uno stimolo biotico, a differenti livelli cellulari, per interagire direttamente con l’agente infettante e/o per modulare la risposta immunitaria contro i patogeni. Tali peptidi sono oggi classificati in relazione alle loro caratteristiche biochimiche (carica netta) e/ o alle loro caratteristiche strutturali (composizione amminoacidica, struttura lineare o circolare). In base a queste caratteristiche le molecole possono essere distinte nei seguenti gruppi: 1) peptidi lineari ad alfa elica; 2) peptidi ciclici con β-sheets e due o più ponti disolfuro; 3) peptidi con alfa elica e β-sheets stabilizzati da ponti disolfuro; 4) peptidi con hairpin o loop stabilizzati da ponti disolfuro; 5) peptidi lineari con residui aminoacidici ripetuti, come prolina, glicina, triptofano o istidina; 6) piccoli peptidi con struttura avvolta o con una struttura secondaria non definita. Nonostante la loro diversità strutturale, i peptidi antimicrobici presentano la caratteristica comune di inibire la crescita di un largo spettro di microbi, quali Gram-positivi, Gram-negativi, funghi e in alcuni casi anche virus, tanto da far coniare il termine di “antibiotici naturali”. Negli ultimi anni è notevolmente incrementato l’interesse verso tali peptidi dal momento che dati scientifici hanno mostrato che questi non inducono lo sviluppo di meccanismi di resistenza nei microrganismi patogeni. Gli AMPs quindi potrebbero costituire una valida alternativa non solo in ambito sanitario, per la sostituzione di antibiotici di sintesi chimica e di origine microbiologica, ma potrebbero avere un importante utilizzo in campo industriale e nello sviluppo di nuovi sistemi di conservazione degli alimenti al fine di incrementare la loro “shelf-life”.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la potenza emessa da una carica elettrica accelerata. Saranno studiati due casi speciali: accelerazione lineare e accelerazione circolare. Queste sono le configurazioni più frequenti e semplici da realizzare. Il primo passo consiste nel trovare un'espressione per il campo elettrico e il campo magnetico generati dalla carica. Questo sarà reso possibile dallo studio della distribuzione di carica di una sorgente puntiforme e dei potenziali che la descrivono. Nel passo successivo verrà calcolato il vettore di Poynting per una tale carica. Useremo questo risultato per trovare la potenza elettromagnetica irradiata totale integrando su tutte le direzioni di emissione. Nell'ultimo capitolo, infine, faremo uso di tutto ciò che è stato precedentemente trovato per studiare la potenza emessa da cariche negli acceleratori.
Resumo:
I semiconduttori organici sono alla base dell'elettronica organica, un campo di ricerca che negli ultimi anni ha coinvolto diversi gruppi di lavoro, sia a livello accademico che industriale. Diversi studi hanno portato all'idea di impiegare materiali di questo tipo come detector di raggi X, sfruttando la loro flessibilità meccanica, la facile fabbricazione di dispositivi su larga area e tramite tecniche a basso costo (es. stampa a getto di inchiostro) e le basse tensioni operative. In questa tesi in particolare si utilizzeranno degli OFET (Organic Field-Effect Transistor) a questo scopo, dimostrando la possibilità amplificare la sensibilità alla radiazione X e di pilotare le prestazioni del detector mediante l'applicazione della tensione all'elettrodo di gate. Presenteremo quindi uno studio sperimentale atto a caratterizzare elettricamente dei transistor realizzati con differenti semiconduttori organici, prima, durante e dopo l'esposizione a raggi X, in maniera da stimarne la sensibilità, le proprietà di conduzione intrinseche e la resistenza all'invecchiamento.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.