670 resultados para Casalecchio di RenoRomainvilleAnalisi comparataPianificazione dei trasportiRiqualificazione strade
Resumo:
Il presente lavoro di tesi vuole focalizzare l’attenzione sull’impiego del GNL per la propulsione navale, analizzando aspetti legati alla sicurezza delle infrastrutture necessarie a tale scopo. Si sono considerati due diversi casi di studio: il primo riguarda un deposito costiero attrezzato per poter svolgere attività di rifornimento per imbarcazioni, mentre il secondo caso interessa una nave da trasporto passeggeri alimentata a GNL. È stata condotta un’analisi del rischio: l’identificazione dei pericoli ha seguito le linee guida proposte dalla metodologia MIMAH, oltre a sfruttare risultati di analisi HAZOP e HAZID. La stima delle frequenze di rilascio è stata effettuata con la tecnica della parts count, sulla base di valori ottenuti da database affidabilistici. La valutazione delle conseguenze è stata realizzata con il supporto del software DNV PHAST, utilizzando come riferimento i valori soglia proposti dal D.M. 9/5/2001. È stata infine impostata una modellazione fluidodinamica con lo scopo di valutare la possibilità di rottura catastrofica dei serbatoi di stoccaggio dovuta ad un’eccessiva pressurizzazione causata da una situazione di incendio esterno. Le simulazioni sono state condotte con il supporto del software CFD ANSYS® FLUENT® 17.2. Si è modellata una situazione di completo avvolgimento dalle fiamme considerando due geometrie di serbatoio diverse, nel caso di materiale isolante integro o danneggiato. I risultati ottenuti dall’analisi del rischio mostrano come i danni derivanti da un ipotetico scenario incidentale possano avere conseguenze anche significative, ma con valori di frequenze di accadimento tipici di situazioni rare. Lo studio fluidodinamico del comportamento di serbatoi di stoccaggio avvolti dalle fiamme ha evidenziato come questi siano capaci di resistere a condizioni gravose di incendio per tempi prolungati senza che si abbia una pressurizzazione tale da destare preoccupazione per l’integrità strutturale delle apparecchiature.
Resumo:
Il tasso di crescita di tre popolazioni di Pinna nobilis all’interno del Parco Nazionale di Cabrera (Isole Baleari) è stato analizzato per stimare l’età degli individui al fine di una migliore comprensione della biologia e dell’ecologia di questa specie sempre più minacciata. In questa tesi il tasso di crescita di una popolazione profonda, quella delle Baleari (20-30m), è stato confrontato con quello di due popolazioni superficiali: Freus e Gandulf (5-10m). L’obiettivo è valutare l’effetto della profondità e del sito sulle modalità di accrescimento degli individui. Sono state prelevate alcune valve di individui morti di P. nobilis a varie profondità. Lo studio della sclerocronologia ci ha permesso di studiare l’origine dei registri interni di crescita e le modalità di accrescimento. I risultati hanno mostrato una chiara differenziazione della taglia fra le tre popolazioni. Gli individui della popolazione profonda raggiungono dimensioni maggiori elevate e vivono più a lungo. Ma la popolazione di Gandulf ha un tasso di crescita simile a quello della popolazione delle Baleari essendo entrambe caratterizzate da individui di grandi dimensioni (Lmax Baleari= 65,1cm; Lmax Gandulf=62,4cm) e più longevi (età max=27anni). La popolazione di Freus è caratterizzata invece da individui di dimensioni minori e giovani di età (età max=14anni). Anche la velocità di crescita che porta a raggiungere la dimensione asintotica massima risulta simile nella popolazione di Gandulf (K=0,19) e nella popolazione delle Baleari (K=0,14), ed in entrambe è inferiore ai valori rilevati a Freus (K=0,21). Tali risultati evidenziano l’esistenza di una forte variabilità del tasso di accrescimento fra popolazioni collocate sia a profondità che in siti diversi. La differenza riscontrata tra la popolazione di Freus e quella di Gandulf è che la prima si trova in un sito esposto, mentre l’altra è collocata in una cala protetta subendo, quindi, un minor stress idrodinamico.
Resumo:
Da alcuni anni in ambiente enologico si conducono studi volti ad individuare prodotti tecnologici o tecnologie in grado di sostituire o diminuire l’impiego dell’anidride solforosa nei processi di vinificazione. . Quest’ultima. infatti, è ormai da tempo considerata tra gli additivi che maggiormente impattano sulle caratteristiche di sicurezza d’uso dei prodotti enologici, possedendo conclamati rilievi di allergenicità e tossicità di tipo acuto e cronico. Il chitosano è un polisaccaride recentemente autorizzato in enologia che ha dimostrato alcune interessanti attività, utili per la definizione di protocolli di vinificazione a ridotto utilizzo di anidride solforosa. L’obbiettivo di questa tesi è quello di studiare il comportamento del chitosano nell’ambito del processo di produzione di vini spumanti prodotti secondo il metodo classico. Allo scopo, il polisaccaride è stato aggiunto in fase di presa di spuma e l’effetto della sua presenza è stato valutato nei mesi successivi, fino alla sboccatura, effettuata a 5 mesi dall’inizio della fermentazione secondaria. Sulle tre tesi approntate (una con nessuna aggiunta, una con chitosano e una con acido malico e chitosano) sono state condotte analisi della componente fissa e volatile dei prodotti ottenuti. I risultati hanno dimostrato come i vini rifermentati con chitosano possano presentare interessanti caratteristiche chimico-sensoriali e come l’impiego di questo coadiuvante sia meritevole di ulteriori approfondimenti, destinati a meglio definire le modalità di utilizzo per la produzione di vini spumanti in assenza di anidride solforosa aggiunta.
Resumo:
Visto l’attuale fabbisogno di fosforo, è fondamentale, in un’ottica di sostenibilità ambientale, mettere a punto un trattamento che consenta di ottenere un efficiente recupero del fosforo. Il seguente lavoro di tesi si pone come obbiettivo quello di caratterizzare la prestazione di un adsorbente utilizzato in un impianto pilota presso l’università di Cranfield per il recupero del fosforo da acque reflue municipali dopo 2 anni di utilizzo, corrispondenti a 66 cicli di adsorbimento/desorbimento. In particolare sono state confrontate le prestazioni ottenibili dalla resina usata rigenerata con la procedura standard (mediante NaOH 2%) e con una procedura di ricondizionamento mediante un trattamento più forte (mediante NaOH 2% + NaCl 5%) con quelle della resina vergine. Le due tipologie di soluzione rigenerante serviranno a valutare il contributo all’adsorbimento totale delle nanoparticelle di HFO e dei gruppi funzionali presenti sulla resina. I test sono stati condotti sia in soluzioni sintetiche di fosfato (acqua demineralizzata a cui viene aggiunto un determinato quantitativo di sali di fosfato), sia in soluzioni reali (wastewaters, fornite dalla multiutility HERA). Lo studio è stato condotto mediante isoterme di adsorbimento e test in continuo (curve di breakthrough). I risultati ottenuti confermano che la resina, dopo due anni, mantiene ottime prestazioni, molto simili alla vergine. Il materiale ha mostrato una ottima resistenza meccanica, durabilità e facilità di rigenerazione, dimostrandosi un eccellente adsorbente per gli ortofosfati anche alle basse concentrazioni tipiche degli effluenti secondari di scarto. I test in continuo hanno inoltre mostrato come, alle tipiche concentrazioni delle acque reflue, la rigenerazione dei gruppi funzionali della resina mediante sodio cloruro non porti ad un significativo miglioramento delle proprietà adsorbenti. Dai dati ottenuti si può affermare con certezza che il ciclo vitale della resina risulta essere ben oltre i 2 anni.
Resumo:
I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
Scopo dell'elaborato è stato la produzione di un materiale bio-composito formato da PLA ed un rinforzo di origine naturale derivante dal settore agricolo, nell'ottica di diminuire i costi dei manufatti costituiti da tale materiale, riducendo il contenuto di PLA, e rivalorizzare lo scarto di farine in applicazioni di stampa 3D. Inizialmente le farine sono state studiate mediante analisi spettroscopiche (FT-ATR), osservazioni al microscopio ottico e analisi TGA. Dopodiché sono stati prodotti filamenti per stampa 3D di materiale composito al 10% e caratterizzati termicamente (DSC, TGA, Cp) e meccanicamente (DMA). Successivamente alla stampa 3D di questi filamenti, sono stati analizzati comportamenti termici (CTE, DSC) e meccanici (prove di trazione, DMA) dei provini stampati. Si è infine valutata l'influenza del trattamento termico di ricottura sui provini stampati mediante analisi DSC e DMA.
Resumo:
Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
La presente tesi, in particolare, sfrutta un metodo di analisi semplificato di “loss assessment” o analisi delle perdite economiche, considerando un edificio esistente in CA. L’edificio caso di studio è un tipico edificio intelaiato in CA sito sull’appennino, e progettato e costruito negli anni ’70, dunque, senza tenere conto dell’azione orizzontale del sisma, per cui non presenta i dettagli costruttivi atti a soddisfare i requisiti minimi di duttilità. È stata effettuata una analisi statica non lineare (Pushover), per studiare la risposta della struttura esistente alle azioni orizzontali. Al fine di migliorare il confinamento delle colonne in CA, è stato scelto di utilizzare dei rinforzi locali, tipicamente utilizzati in Italia nella pratica progettuale, atti a migliorare le caratteristiche di duttilità e/o resistenza degli elementi rinforzati, e di conseguenza capaci di migliorare le caratteristiche globali dell’intero sistema strutturale. Sono state selezionate tre diverse tecnologie: le “Fiber Reinforced Polymers” (FRP), il “Concrete Jacketing” (CJ) e il sistema di Cerchiature Attive dei Manufatti (CAM). Nella presente tesi verranno presentate diverse applicazioni di questi sistemi, enunciandone i miglioramenti rispetto al caso “As-built” e poi confrontandole tra di loro in modo da fornire elementi validi a supporto della fase decisionale per la progettazione dell’intervento sull’edificio. Infine vengono valutate le perdite economiche medie annue attese, insieme ad altri parametri sintetici di analisi delle perdite e di analisi costi-benefici. Il fine di questo processo è di studiare quanto uno specifico intervento di miglioramento sismico, applicato all’edificio As-built, consenta di ridurre le perdite economiche sismiche stimate in un anno di vita della struttura, e poi nel corso della sua vita utile, per fornire un elemento di paragone utile per la scelta dell’intervento ottimale.
Resumo:
Lo studio ha applicato la metodologia Life Cycle Assessment (LCA) con l’obiettivo di valutare i potenziali impatti ambientali derivanti dalla coltivazione dell’uva in due aziende a conduzione convenzionale del ravennate, denominate DZ e NG. Successivamente è stato applicato il modello RothC per simulare scenari sulla variazione del Soil Organic Carbon (SOC) e valutare in che misura le diverse pratiche agronomiche di gestione del suolo influenzino la variazione del SOC e la relativa emissione di CO2. Infine, i risultati dell’LCA sono stati integrati con quelli del modello RothC. Gli esiti dell’LCA indicano che, generalmente, sui diversi aspetti ambientali l’azienda DZ ha impatti superiori a quelli di NG soprattutto a causa di un maggiore utilizzo di fertilizzanti e pesticidi. Per quanto riguarda il contributo al riscaldamento globale (GWP), DZ mostra un impatto circa doppio di quello di NG. Il modello RothC ha individuato quali pratiche culturali aumentano il SOC mitigando le emissioni di CO2eq., in particolare: l’inerbimento perenne, la scelta di forme di allevamento con elevata produzione di residui culturali e l’utilizzo di ammendanti. L’integrazione dei valori dei due strumenti ha permesso di ottenere un bilancio globale di CO2eq. in cui le emissioni totali rispetto al GWP aumentano in DZ e diminuiscono in NG, portando a un impatto di DZ circa tre volte superiore rispetto a quello di NG. Fertilizzazione, potatura e lavorazione del suolo sono pratiche considerate nel calcolo del GWP in termini di consumo ed emissione dei processi produttivi, ma non come input di carbonio fornibili al suolo, determinando sovra o sottostima delle effettive emissioni di CO2eq. Questo studio dimostra l’utilità di incentivare la diffusione dell’applicazione integrata dei due strumenti nel settore viticolo, determinante per la comprensione e quantificazione delle emissioni di CO2 associate alla fase di coltivazione, sulla quale quindi indirizzare ottimizzazioni e approfondimenti.
Resumo:
La tesi ha come oggetto lo studio e la progettazione di un edificio industriale in carpenteria metallica localizzato a Bologna. Definizione ed analisi dei carichi con successiva progettazione e verifica del manto di copertura costituito da un doppio laminato in acciaio strutturale zincato preverniciato che racchiude uno strato di poliuretano espanso ad alta densità con funzione isolante. Progettazione e verifica degli arcarecci in base alla larghezza della fascia di loro pertinenza e ai carichi gravanti sulla copertura. Progettazione e verifica della trave reticolare calcolando singolarmente ed in modo distinto le prime 3 capriate come rappresentative di tutte le tipologie di combinazione di carico a seconda che gli arcarecci che gravano sulla capriata appoggino su 2 o 3 capriate. Progettazione e verifica delle aste della trave reticolare che in relazione all’estesa luce di interasse dei portali verrà realizzata in parte tramite l’adozione di saldature ed in parte tramite bullonature.Progettazione e verifica della baraccatura laterale con scelta del pacchetto coibentato, dell’arcareccio di gronda e di parete e dimensionamento del rompitratta. Progettazione e verifica delle colonne laterali sulle quali grava il peso della sovrastante trave reticolare in combinazione all’azione di taglio e momento provocato dal vento. Progettazione e verifica dei montanti di facciata, o false colonne. Verifica della colonna angolare che sarà soggetta ad uno stato di sollecitazione pluriassiale dovuta all’azione del vento. Progetto e verifica del controventamento di falda e dei controventamenti di parete per limitare il più possibile l’inflessione e lo sbandamento dei correnti superiori delle capriate. Verifica di tutti i collegamenti della capriata: per facilitare le operazioni di trasporto e montaggio si è scelto di dividere la capriata in due metà interamente saldate.Verifica del collegamento di base tra pilastro e plinto di fondazione. Progetto e verifica del plinto di fondazione.
Resumo:
Il presente elaborato nasce dalla volontà di mettere in luce l’interpretazione in ambito sportivo, analizzando, in particolare, le caratteristiche dell’interpretazione delle interviste sia nella resa dialogica che attraverso i sottotitoli. Scopo della tesi è quello di rilevare il grado di adeguatezza dell'interpretazione delle interviste sportive nella lingua italiana. Il primo capitolo intende esplorare le caratteristiche generali di tali interviste intese come genere. Dapprima vengono individuate le modalità prevalenti e le specificità dell’interpretazione nell’ambito sportivo, quindi vengono approfondite le peculiarità e gli aspetti essenziali dell'interpretazione dialogica e della sottotitolazione in tale ambito. Nel secondo capitolo viene definita la figura dell'interprete sportivo, vengono quindi descritte le sue principali competenze professionali. Nel terzo ed ultimo capitolo ha luogo lo studio sperimentale di una serie di interviste sportive, dei metodi e delle tecniche della loro interpretazione nella lingua russa (interpretazione dialogica e sottotitolazione). Tale studio ci permette di identificare gli errori più comuni ed al contempo di trovare delle soluzioni costruttive durante l'interpretazione. Il nostro obiettivo è delineare delle strategie e raccomandazioni efficaci che possano essere messe in pratica al fine di facilitare e migliorare l'interpretazione e la sottotitolazione delle interviste nell’ambito sportivo.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.