902 resultados para strutture sotterranee metodo di calcolo azioni sismiche
Resumo:
Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.
Ripartire dall'esistente Riqualificazione di un quartiere di edilizia residenziale pubblica a Faenza
Resumo:
L’intenzione che ha mosso la ricerca è stata quella di ridare valore alla casa pubblica, perché è un’opportunità per la popolazione, soprattutto per le fasce sociali più deboli e perché non può non essere espressione di qualità architettonica, urbanistica e sociale. A ciò si aggiunge la scelta di un modo di operare sostenibile, dove alle nuove costruzioni si predilige l’idea del recupero. Ecco da dove nasce l’idea di ripartire dall’esistente, scegliendo un’area del sistema urbano di proprietà pubblica, per definire, in una prospettiva di miglioramento, un sistema di strategie di intervento e un progetto di riqualificazione. Capire come agire su un’area di questo tipo, ha stimolato ad una lettura degli interventi statali sul tema dell’edilizia pubblica attraverso le azioni in campo legislativo. La ricerca ha preso poi avvio da una lettura dell’evoluzione del quadro normativo nazionale in materia, per poi concentrarsi sul contesto locale con il racconto dei fatti storici della città di Faenza fino ai giorni nostri attraverso le sue vicende urbanistiche. Una considerazione sulla legislazione passata dà la possibilità di vedere come lo Stato abbia nel tempo prestato attenzione e risposto in maniera diversa al problema della casa. In ogni periodo le iniziative dell’Amministrazione in merito alla programmazione, si mostrano come risultati di una risposta sociale e culturale, rilanciando poi, a seconda del momento, varie tematiche, ieri la carenza degli alloggi, oggi il tema della qualità urbana, del recupero e la necessità di contenere i costi e i consumi energetici. Lo studio si è quindi spostato e concentrato sulle tappe ed i risvolti della programmazione a livello locale, cercando di comprendere, anche sulle carte, il risultato di queste azioni amministrative, si legge come il susseguirsi delle diverse politiche urbanistiche abbia lasciato tracce e segni nel disegno della città. Nel loro esito formale gli interventi hanno assunto un valore nella vicenda della città poiché ne hanno determinato l’espansione in un certo modo. Dopo un lavoro di ricerca di documenti, consultando anche diversi archivi, gli interventi in materia di edilizia residenziale pubblica presenti a Faenza sono stati schedati al fine di creare un repertorio di informazioni riguardanti la localizzazione, la data di costruzione e informazioni riguardanti il tipo di intervento a livello normativo, in questo modo si è potuto inquadrare ciascun quartiere in una determinata stagione di politiche abitative. Queste informazioni sono state poi tradotte in schemi che comprendono tutto il territorio della città fino ad ottenere una visione d’insieme e cogliere le relazioni che i singoli interventi intrattengono con il resto della città. Si esplorano poi le relazioni in base alle stagioni delle politiche abitative e in base ai soggetti che ne hanno promosso la costruzione. La ricerca si propone quindi di riflettere sugli strumenti con cui agire nei casi di degrado, assecondando la logica del recupero e del riuso. Il processo per definire il "come" intervenire ha portato alla creazione di un abaco di possibili strategie di riqualificazione suddivise per grandi tematiche (connessione e mobilità, mixitè funzionale e verde, risparmio energetico, nuovi modi dell’abitare e relazioni e identità). Ogni tematica viene poi declinata in sottotemi che descrivono le operazioni possibili per la rigenerazione, correlati da una definizione e da piccoli progetti applicativi. Ciascun progetto schematizzato è pensato su un’area di edilizia residenziale pubblica di Faenza. Le strategie vengono poi effettivamente applicate ad un caso studio: il PEEP Orto Paganella. Il progetto di riqualificazione si struttura in due parti. Una riguarda l’impianto del quartiere, inserendo un nuovo volume destinato a servizi, l’altra si concentra su un edificio esistente per un progetto di recupero allo scopo di ridare valore al manufatto, riscattarne l’immagine e creare un’offerta abitativa adeguata, che assicuri abitazioni in affitto e tipi di alloggi destinati a nuovi soggetti della popolazione, con le loro specifiche esigenze. Il progetto di riqualificazione si sviluppa a partire dall’orientamento dell’edificio e dei suoi affacci. Viene sviluppato il tema dell’involucro, che circonda l’edificio e si declina sui diversi fronti in modo diverso. La proposta della facciata verso sud, trasparente e aperta sul parco pubblico ritrova la giusta considerazione per l’orientamento, sfruttandone le potenzialità e aprendosi alla vista del parco, mentre il fronte a nord rimane chiuso e protetto. Creando nuovi spazi e nuovi affacci e restituendo una nuova immagine dell’edificio si cerca di stimolare una riappropriazione del senso di appartenenza al quartiere.
Resumo:
Tesi svolta presso l'azienda “Riba composites S.r.l.” con lo scopo di riprogettare una passerella nautica utilizzata in imbarcazioni a vela da competizione, attualmente realizzata mediante formatura in autoclave di tessuti pre-impregnati, per il processo produttivo di Vacuum Assisted Resin Injection (VARI). La formatura in autoclave di tessuti pre-impregnati è una delle tecnologie più onerose, tra i vari processi produttivi nel settore dei materiali compositi, ma assicura proprietà meccaniche e livelli estetici superlativi. L’obiettivo della Riba Composites è ridurre i costi di produzione per offrire un prodotto dalle proprietà analoghe a un prezzo più competitivo. Nella fase di riprogettazione ci siamo affidati a un software di calcolo agli elementi finiti che simula il processo del VARI, l’applicativo PAM-RTM, del gruppo ESI. Al fine di ottenere una simulazione quanto più precisa possibile del processo, abbiamo realizzato molteplici prove sperimentali per ricavare i valori di compressibilità e permeabilità dei rinforzi da inserire nel software FEM.
Resumo:
Questo elaborato di tesi descrive l'attività scientifica svolta presso il Dipartimento di Chimica Industriale e dei Materiali della Facoltà di Chimica Industriale dell'Università degli Studi di Bologna, il cui scopo principale è stato la sintesi e la caratterizzazione di nuovi monomeri cianoacrilici ad uso biomedicale che auspicabilmente presentino elevata velocità di polimerizzazione e minima adesività. Mediante il metodo di protezione e deprotezione, con reazioni di Diels Alder, dell'etil-2-cianoacrilato (SuperAttackTM) sono stati sintetizzati tre monomeri cianoacrilici aromatici florurati e un monomero cianoacrilico alifatico iodurato. Successivamente i prodotti sono stati testati per valutarne i tempi di polimerizzazione e le proprietà adesive rispetto ad uno dei cianoacrilati maggiormente impiegati in chirurgia. Il risultato di questi studi e stato l'effettivo ottenimento di tre monomeri aventi elevata velocità di polimerizzazione e dotati di scarsa adesività. Il quarto monomero, a causa della sua spiccata tendenza alla polimerizzazione non è risultato testabile.
Resumo:
Nella presente tesi ci siamo occupati dell'equazione di curvatura di Gauss-Levi, prima introducendo le nozioni necessarie alla sua definizione, poi cercandone soluzioni viscose. A tale scopo abbiamo introdotto in generale la nozione di soluzione viscosa per operatori ellittici degeneri, dimostrandone l'esistenza grazie al Principio del Confronto e al Metodo di Perron. Abbiamo infine riportato alcuni risultati che collegano le soluzioni viscose dell'equazione di curvatura, a quelle classiche.
Resumo:
Studio sulla ottimizzazione di placche mandibolari, utilizzate per ricostruzioni ossee, inclusivo di calcolo numerico, disegno ed analisi strutturali.
Resumo:
Nel corso del tirocinio di tesi si sono studiate nuove metodologie per la produzione di enzimi idrolitici per matrici lignocellulosiche vegetali di scarto. In primis è stato valutato un nuovo metodo di produzione enzimatica utilizzando il fungo basidiomicete Pleurotus ostreatus all’interno di un fermentatore in stato solido (SSF) movimentando periodicamente il substrato mediante un'estrusione meccanica e confrontando i risultati con esperimenti analoghi ma privi di estrusione. In seguito si è valutata l’attività enzimatica prodotta dal fungo Agaricus bisporus (il comune Champignons) cresciuto tramite una fermentazione in stato solido priva di qualsiasi movimentazione. Infine gli estratti enzimatici ricavati dalle prove precedenti sono stati utilizzati allo scopo di idrolizzare matrici vegetali di scarto provenienti dall’industria cerealicola e viti-vinicola. I risultati del lavoro risultano promettenti e si osserva come sia gli estratti ricavati da fermentazioni su stato solido dinamiche (con Pleurotus) che quelle su stato solido statiche (con Agaricus) sono in grado di favorire l’idrolisi e la degradazione delle matrici vegetali favorendo la fuoriuscita di componenti di interesse come zuccheri riducenti e polifenoli.
Resumo:
Il seguente lavoro di tesi ha come scopo l'illustrazione delle fasi di progetto di un impianto di microcogenerazione nell'ambito territoriale dell'Emilia Romagna. In particolare verrà fatta un'analisi economica di fattibilità, un'analisi energetica di calcolo delle prestazioni dell'impianto mediante norma UNI-TS 11300-IV, il progetto e la scelta dei componenti afferenti l'impianto di riscaldamento delle utenze e un'analisi dei documenti amministrativi disciplinanti la messa in funzione nonché la valorizzazione dell'energia elettrica immessa in rete. Il lavoro è stato eseguito su quindici impianti afferenti ad altrettante utenze con caratteristiche di utilizzo dell'impianto diversificate tra loro.
Resumo:
Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".
Resumo:
Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
The thesis objectives are to develop new methodologies for study of the space and time variability of Italian upper ocean ecosystem through the combined use of multi-sensors satellite data and in situ observations and to identify the capability and limits of remote sensing observations to monitor the marine state at short and long time scales. Three oceanographic basins have been selected and subjected to different types of analyses. The first region is the Tyrrhenian Sea where a comparative analysis of altimetry and lagrangian measurements was carried out to study the surface circulation. The results allowed to deepen the knowledge of the Tyrrhenian Sea surface dynamics and its variability and to defined the limitations of satellite altimetry measurements to detect small scale marine circulation features. Channel of Sicily study aimed to identify the spatial-temporal variability of phytoplankton biomass and to understand the impact of the upper ocean circulation on the marine ecosystem. An combined analysis of the satellite of long term time series of chlorophyll, Sea Surface Temperature and Sea Level field data was applied. The results allowed to identify the key role of the Atlantic water inflow in modulating the seasonal variability of the phytoplankton biomass in the region. Finally, Italian coastal marine system was studied with the objective to explore the potential capability of Ocean Color data in detecting chlorophyll trend in coastal areas. The most appropriated methodology to detect long term environmental changes was defined through intercomparison of chlorophyll trends detected by in situ and satellite. Then, Italian coastal areas subject to eutrophication problems were identified. This work has demonstrated that satellites data constitute an unique opportunity to define the features and forcing influencing the upper ocean ecosystems dynamics and can be used also to monitor environmental variables capable of influencing phytoplankton productivity.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
La dissertazione affronterà il tema del controllo qualità nei progetti, applicando conoscenze, tecniche e strumenti propri del Project e del Multiproject Management. L’analisi partirà svolgendo, nel primo capitolo, considerazioni introduttive riguardo le due discipline citate. Lo scopo ultimo sarà quello di elaborare un sistema di controllo integrato della qualità, indirizzato principalmente al Project Management che è presente in una qualsiasi organizzazione che opera per progetti. Nel secondo capitolo verrà illustrato il metodo denominato Multidimensional Project control System sul quale il modello sviluppato in seguito si basa. La progettazione di un sistema di controllo è una parte importante dello sforzo di gestione di un progetto. Tale sistema è basato su una serie di obiettivi di progetto e sulla loro importanza relativa e fonda la sua natura su una sistematica valutazione in corso d’opera dello stato di conformità del progetto, sia a livello di processo che a livello di output. Nel capitolo conclusivo si affronta l’obiettivo principale di questo elaborato. Sono stati forniti dati e documenti dall’azienda Despar Italia c.r.l. ed è stato chiesto di sviluppare un metodo di controllo che il Project Management potesse utilizzare per implementare un processo di verifica della qualità di progetto. Viene quindi descritta l’azienda, come il Management pianifica, gestisce e controlla i progetti e quali necessità devono essere soddisfatte. Si procede poi con l’illustrazione e spiegazione del metodo sviluppato, chiarito da un esempio esplicativo. L’elaborato si concluderà con delle riflessioni finali, proponendo critiche e spunti per eventuali sviluppi futuri.