1000 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
Creazione di un modello di calcolo che, una volta inseriti i dati di input del sistema, fornisca una serie di output utili a svolgere considerazioni di natura energetica ed economica per eseguire uno studio di fattibilità di una o più tecnologie a servizio di un'utenza industriale o civile. Applicazione di tale modello al fine di eseguire uno studio di fattibilità di un impianto di trigenerazione a servizio di un'industria ceramica, analizzando anche l'eventuale accoppiamento della trigenerazione con il fotovoltaico e l'accumulo. Analisi delle variazioni dei prezzi dell'energia elettrica e del gas sul sistema.
Resumo:
Nel campo della meccanica uno dei metodi di fissaggio maggiormente utilizzati è il fissaggio per attrito con elementi filettati. Il collegamento tra gli elementi è generato dall’accoppiamento tra i filetti di vite e madrevite, che, una volta precaricati, aderiscono impedendo il movimento reciproco tramite la forza di attrito. Uno dei problemi, però, che si riscontra sull’utilizzo dei giunti filettati è relativo alla resistenza a fatica. Precisamente, gli organi in esame presentano una geometria altamente intagliata: infatti, i filetti, fungono da centri di intensificazione degli sforzi. Per mitigare il fenomeno occorrerebbe diminuire la rigidità della vite, ma ciò comporterebbe un rischio di perdita del precarico con conseguente riduzione di efficacia del collegamento. Si è mostrato, tuttavia, che vi è un possibile metodo alternativo per migliorare la resistenza a fatica delle viti: si è notato che le viti snervate, tramite un serraggio, presentano un limite a vita finita maggiore rispetto a quelle standard. Lo scopo di questo lavoro di tesi è di oggettivare l’incremento del limite di fatica generato da uno snervamento, verificare l’effettivo miglioramento anche sulla vita infinita e dedurne le motivazioni, mediante prove. A tal fine, sono state prese in considerazione diverse tipologie di provini, nello specifico viti M8 di classe 8.8 e 12.9, per verificare l’influenza della resistenza meccanica sull’incremento del limite. I test prevedono anche una breve parentesi sui benefici portati dall’utilizzo di un dado rialzato, in particolare viene mostrato come l’aumento del numero di filetti in presa vada ad esaltare il fenomeno analizzato. Una volta oggettivato l’aumento di resistenza a fatica e avanzate alcune ipotesi sulle cause del fenomeno, è stato sviluppato un modello agli elementi finiti, con semplificazioni volte a ridurre il tempo di calcolo, al fine di studiare la distribuzione degli stress in fase di serraggio per validare le assunzioni avanzate.
Resumo:
L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.
Resumo:
L'elaborato in questione fa riferimento all’implementazione di un codice di simulazione gara, tenutasi all'Autodromo di Imola, di un veicolo solare applicato al caso Italian Solar Challenge. Per avere la possibilità di effettuare scelte strategiche sulla conduzione di gara, si è voluto creare un programma che fosse in grado di modellare: il veicolo designato per questa competizione, la produzione di energia generata dai pannelli solari, il comportamento della batteria; inoltre, che permettesse anche di integrare il regolamento per la restituzione del punteggio finale, di considerare il tracciato nel quale la competizione si svolge e di aver un tempo di calcolo limitato e contemporaneamente avere un’adeguata accuratezza.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
In questa tesi discuteremo come è possibile effettuare la traduzione di un software parallelo scritto in linguaggio CUDA ad uno in linguaggio OpenCL. Tratteremo le tecnologie utilizzate per lo sviluppo di un simulatore cardiaco parallelo e discuteremo in particolar modo come derivare da queste una versione che ne permetta l’esecuzione su schede video e processori arbitrari. Questa versione verrà messa poi a confronto con quelle già esistenti, per analizzarne prestazioni ed eventuali cambiamenti strutturali del codice. Quanto affermato sopra è stato possibile in gran parte grazie ad un wrapper chiamato SimpleCL pensato per rendere la programmazione OpenCL simile a quella in ambiente CUDA. OpenCL permette di operare con le unità di calcolo in maniera molto astratta, ricordando vagamente i concetti di astrazione di memoria e processori della controparte NVIDIA. Ragionevolmente SimpleCL fornisce solamente una interfaccia che ricorda chiamate CUDA, mantenendo il flusso sottostante fedele a quello che si aspetterebbe OpenCL.
Resumo:
Grazie all’evoluzione degli strumenti di calcolo e delle strutture digitali, le intelligenze artificiali si sono evolute considerevolmente negli ultimi anni, permettendone sempre nuove e complesse applicazioni. L’interesse del presente progetto di tesi è quello di creare un modello di studio preliminare di intelligenza artificiale definita come Rete Neurale Convoluzionale, o Convolutional Neural Network (CNN), al fine di essere impiegata nel campo della radioscienza e dell’esplorazione planetaria. In particolare, uno degli interessi principali di applicazione del modello è negli studi di geodesia compiuti tramite determinazione orbitale di satelliti artificiali nel loro moto attorno ai corpi celesti. Le accelerazioni causate dai campi gravitazionali planetari perturbano le orbite dei satelliti artificiali, queste variazioni vengono captate dai ricevitori radio a terra sottoforma di shift Doppler della frequenza del segnale, a partire dalla quale è quindi possibile determinare informazioni dettagliate sul campo di gravità e sulla struttura interna del corpo celeste in esame. Per poter fare ciò, occorre riuscire a determinare l’esatta frequenza del segnale in arrivo, il quale, per via di perdite e disturbi durante il suo tragitto, presenterà sempre una componente di rumore. Il metodo più comune per scindere la componente di informazione da quella di rumore e ricavarne la frequenza effettiva è l’applicazione di trasformate di Fourier a tempo breve, o Short-time Fourier Transform (STFT). Con l’attività sperimentale proposta, ci si è quindi posto l’obiettivo di istruire un CNN alla stima della frequenza di segnali reali sinusoidali rumorosi per avere un modello computazionalmente rapido e affidabile a supporto delle operazioni di pre-processing per missioni di radio-scienza.
Resumo:
In questo elaborato vengono descritte le modalità ed i criteri di progettazione di un impianto di riutilizzo di vapore surriscaldato residuo, per un’applicazione industriale di riscaldamento di acqua desalinizzata. Il vapore, che si trova stanziato in linee di accumulo considerate preesistenti, verrà successivamente spillato e canalizzato verso uno scambiatore termico a fascio tubiero controcorrente. A valle di quest’ultimo, si sviluppa una linea di ritorno di condensa che si conclude con il collegamento della stessa ad una linea di accumulo di condensa, anch'essa considerata preesistente. L’obiettivo principale dell’elaborato è la progettazione delle linee piping necessarie per la corretta e completa realizzazione dell’impianto sopracitato, sia a livello operativo che di sicurezza. A tale scopo, quindi, viene descritto il layout generale d’impianto, vengono stabiliti gli approcci da seguire, come la supportazione delle linee stesse ed i metodi di smorzamento delle tensioni termiche accumulate, ed, una volta introdotte le normative e gli standard utilizzati in fase di progettazione, viene fatta una verifica mediante utilizzo di software di calcolo a elementi finiti (Caesar 2), i cui risultati andranno a giustificare le scelte progettuali ed a convalidare l’attuale installazione del progetto.
Resumo:
L’inquinamento olfattivo, negli ultimi anni, ha acquisito rilevanza a livello istituzionale e varie Regioni italiane hanno adottato Regolamenti e Linee Guida in materia. Queste, individuano gli studi di impatto olfattivo come strumenti per valutare la necessità di interventi correttivi, a seguito di simulazioni effettuate con modelli di dispersione atmosferica. In studi di primo livello uno dei modelli utilizzabili è quello gaussiano, con cui vengono ricercate le concentrazioni di inquinante massime possibili nelle situazioni di simulazione considerate, a scopo di screening. In questo elaborato gli output di queste simulazioni saranno confrontati e correlati con quelli ottenuti da un modello di dispersione non stazionario di tipo lagrangiano a particelle, utilizzato invece negli studi di impatto olfattivo di secondo livello. Le variabili studiate sono state la concentrazione odorigena di picco, confrontata con il 98° percentile delle concentrazioni di picco orario su base annua, e la relativa distanza dalla sorgente. Il setting sperimentale presume una singola sorgente puntiforme, di cui è stata variata l’altezza della ciminiera. Per tutte le altezze emissive considerate, ogni run di simulazione è stato effettuato con entrambi i modelli. Le operazioni di regressione eseguite sugli output così ottenuti, hanno evidenziato delle buone funzioni di correlazione per entrambe le variabili considerate, valutate attraverso il parametro R2. Questo permette un’analisi di impatto olfattivo di primo livello molto più accurata, poiché, utilizzando all’atto pratico un modello di tipo gaussiano, si possono stimare da esso i risultati che si sarebbero ottenuti con l’applicazione di quello lagrangiano, più complesso e in linea con quanto richiesto dalla normativa. Si ottengono, quindi, valutazioni di impatto più aderenti al territorio analizzato senza, tuttavia, la necessità di utenti con competenze tecniche specifiche e di strumenti informatici con potenze di calcolo molto elevate.
Resumo:
Il presente lavoro ha lo scopo di valutare, tramite la creazione di un modello di calcolo, la fattibilità normativa, tecnica ed economica di una comunità energetica di tipo commerciale. Il caso studio analizzato si ispira a un’area commerciale di tipo B2B situata a nord di Bologna: sono stati analizzati vari scenari in ognuno dei quali è stata implementata una diversa configurazione. Quella di partenza dispone di un impianto fotovoltaico centralizzato da 660 kWp e montato su pensiline adibite a parcheggio: negli altri scenari, a questa configurazione, è stato aggiunto un sistema di ricarica per veicoli elettrici e successivamente anche un sistema di accumulo. Nello studio di quest’ultimo scenario sono emerse delle contraddizioni che rendevano priva di senso l’installazione di accumulatori per migliorare la convenienza economica della CER; pertanto, è stata cambiata la configurazione di partenza proponendo un impianto non più centralizzato, bensì, distribuito sui tetti dei membri della CER. Al fine di valutare la fattibilità economica delle diverse configurazioni proposte, è stato utilizzato come indicatore il tempo di ritorno (TR). I risultati mostrano come la configurazione che presenta il TR inferiore è quella dell’impianto distribuito con i sistemi di accumulo. Per concludere è stata condotta un’analisi di sensibilità in cui sono stati variati uno alla volta i seguenti parametri: il numero dei membri, la quota dei consumi in F1 e il costo dell’energia in bolletta. Si è visto che aumentando il numero dei membri, incrementa l’energia condivisa e quindi anche il ricavo dato dalla quota incentivante: il tutto si riflette in un tempo di ritorno via via inferiore. Una maggiore concentrazione dei consumi in F1 comporta un aumento dell’energia condivisa e conseguentemente una diminuzione del tempo di ritorno. Infine, si è osservato che all’aumentare del costo della componente energia in bolletta incrementano i risparmi e diminuisce il tempo di ritorno.
Resumo:
Questo progetto di ricerca, è stato sviluppato per studiare le caratteristiche anatomofunzionali che definiscono l’articolazione del gomito, ed in modo articolare la presenza dell’angolazione valga che origina dalla diversa orientazione degli assi meccanici dell’avambraccio e del braccio e, denominata in letteratura come carrying angle. L’obiettivo principale di questo lavoro - meglio espresso nei diversi capitoli - è stato, quello di identificare un nuovo approccio di misura per la stima di questo angolo, utilizzabile sia per gli studi di biomeccanica articolare, che per gli studi di analisi del movimento per l’arto superiore. Il primo obiettivo è stato quello di scegliere un algoritmo di calcolo che rispettasse le caratteristiche dell’articolazione, ed in modo particolare abile a minimizzare gli errori introdotti sia nella fase di acquisizione dei punti di repere anatomici, che in quella legata alla predizione del movimento di flesso-estensione, con un modello matematico. Per questo motivo abbiamo dovuto realizzare una serie di misure in un primo tempo su due cadaveri di arto superiore, poi, seguendo le regole classiche per la validazione dell’approccio metodologico adottato, si sono realizzate misure in-vivo, prima in massima estensione e poi durante il movimento. Inizialmente abbiamo pensato di comparare le misure lineari relative alle ampiezze del braccio (ampiezza tra l’epicondilo laterale e mediale) e dell’avambraccio (ampiezza tra lo stiloide ulnare e radiale) con quelle ottenute mediante un antropometro; successivamente dopo aver verificato la ripetibilità tra i diversi operatori nell’ acquisizione dei punti di repere anatomici con il digitalizzatore Faro Arm, abbiamo comparato le misure ottenute relative al carrying angle con quelle di un goniometro standard, classicamente utilizzato nella pratica clinica per la definizione dei range di movimento dell’arto superiore. Infine, considerando la bontà delle misure ottenute, abbiamo riproposto tale metodologia con stumenti stereofotogrammetrici per l’analisi del movimento (VICON System), ottenendo la stessa stabilit`a nell’andamento del carrying angle in funzione della flessione, sia come riportato dagli studi in letteratura, sia come riscontrato nel nostro studio in-vitro. In conclusione, questo lavoro di ricerca ha evidenziato (sia per i risultati ottenuti, che per la elevata numerosità dei soggetti testati), come gli esseri umani presentino una grande variabilità individuale nel valore di questo angolo, e di come questo possa aiutare per la corretta definizione di un modello 3-D dell’arto superiore. Pertanto, gli studi futuri sulla biomeccanica dell’arto superiore dovrebbero includere sempre la valutazione di questa misura.
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.
Resumo:
La tesi ha per obiettivo di quantificare gli effetti che la variabilità spaziale del mezzo poroso ha sull'evoluzione di un sistema geochimico. Le reazioni di dissoluzione o precipiazione di minerali modificano la struttura microscopica del mezzo, e con essa le proprietà idrodinamiche del sistema, la permeabilità in modo particolare. La variabilità spaziale iniziale del mezzo può essere causa della formazione di digitazioni o canalizzazioni? La prima parte della tesi tratta il cambiamento di scala, necessario per passare da una simulazione geostatistica su griglia fine al calcolo di trasporto su una tessellazione più grossolana. Nel caso del codice di calcolo Hytec, che implementa uno schema ai volumi finiti basato su discretizzazione in poligoni di Voronoï, sono stati confrontati diversi metodi di calcolo della permeabilità equivalente, seguendo differenti criteri. La seconda parte riguarda i calcoli di trasporto reattivo condotti su famiglie di simulazioni geostatistiche del mezzo; l'influenza della variabilità spaziale iniziale sull'evoluzione dei sistemi viene quantificata grazie ad opportune grandezze osservabili. Sono state studiate due reazioni distinte: un caso di dissoluzione, in maniera più approfondita, e più rapidamente un caso di precipitazione, il cui effetto complessivo è quello di riequilibrare il sistema.