475 resultados para evoluzione telescopiottica adattiva


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rituale ciclicità del cielo ed il mistero degli eventi che in esso accadono hanno portato tutte le popolazioni della Terra ad osservarlo e studiarlo fin dai tempi più remoti. È solo con l'avvento del telescopio però, che si viene a conoscenza di una gran moltitudine di oggetti celesti. I primi strumenti ottici in uso erano telescopi rifrattori. Questi presentavano un problema: l’aberrazione cromatica, che oggi sappiamo può essere parzialmente risolta utilizzando obiettivi a doppietto o tripletto acromatico. All’epoca per ovviare il problema, Newton, decise di utilizzare un sistema di specchi curvi e nel 1668 costruì il primo telescopio riflettore. L’era dei grandi telescopi riflettori iniziò nel 18° secolo. Uno dei più grandi telescopi costruiti all’epoca aveva una superficie ottica di circa 122 cm di diametro. Nel creare telescopi di dimensioni maggiori, ci si imbatte in vari problemi. La soluzione adottata nella costruzione di grandi telescopi fino agli anni '80, fu quella di costruire un imponente blocco monolitico come specchio primario. Questo portò alla costruzione di enormi e pesanti telescopi che si dovevano muovere con alta precisione. Spinti al limite delle capacità progettuali e costruttive dell'epoca, nacque un nuovo concetto costruttivo dei telescopi. Si passò da uno strumento passivo ad un sistema attivo, in cui la qualità dell'ottica era ottenuta da un controllo elettronico di strutture deformabili. Con l’ottica attiva fu possibile costruire telescopi di dimensioni sempre maggiori. Tuttavia ci si imbatte in un ulteriore problema: la qualità dell’immagine è degradata dalla turbolenza atmosferica. In questo trattato mi propongo di descrivere una recente tecnica di correzione per rimuovere le distorsioni del fronte d'onda causate dalla turbolenza: l’ottica adattiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nato in Abcasia ma vissuto a Mosca per quasi tutta la sua vita, Fazil' Iskander è uno degli autori più importanti del panorama letterario russo contemporaneo. La sua produzione letteraria vanta di un gran numero di poesie, romanzi, racconti e saggi pubblicati a partire dagli anni '60 fino quasi ai giorni nostri. Il genere letterario da lui prediletto è la narrativa satirica. Nei suoi romanzi e nei suoi racconti egli mette a nudo e deride ogni aspetto e ogni esponente della realtà sovietica. Il riso, nelle sue forme principali quali ironia, umorismo, parodia, diventa l'arma con cui lo scrittore affronta la dittatura, annientandone l'autorevolezza e il terrore che essa incute nelle persone. Fazil' Iskander manifesta una una grande forza, indipendenza e libertà spirituale nei confronti del regime, grazie al suo atteggiamento ironico nei confronti della realtà e grazie al suo bagaglio culturale abcaso. I costumi e le tradizioni abcase vengono infatti costantemente esaltate in quanto esempio di cultura autentica. Gli abcasi sono i protagonisti dei suoi racconti e vengono ritratti perennemente impegnati in una lotta silenziosa nei confronti del regime. In questa tesi abbiamo voluto esaminare gli aspetti del riso e della satira in tre opere di Iskander, abbiamo cercato di comprendere i meccanismi e i procedimenti comici con cui egli smonta e denigra il sistema sovietico. Nel primo capitolo abbiamo analizzato "Sozvezdie kozlotura" ("La costellazione del caprotoro"), nel secondo capitolo, il capolavoro di Iskander "Sandro iz Chegema" ("Sandro di Chegem") e nel terzo, "Kroliki i udavy" ("I conigli e i boa"). Queste opere, oltre a esaminare e deridere ogni aspetto della dittatura sovietica, ci offrono inoltre una panoramica completa del riso iskanderiano e della sua evoluzione nel corso degli anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato offre una panoramica generale del Remote Interpreting (RI) con l'obiettivo di strutturare un ipotetico seminario da tenere alla SLLTI (Scuola di Lingue e Letterature, Traduzione e Interpretazione, ex SSLMIT) di Forlì, in collaborazione con l'azienda VEASYT, spin-off dell’università Ca' Foscari di Venezia, per introdurre l'argomento agli studenti del corso di laurea in Interpretazione di Conferenza. A tal scopo la tesi è stata suddivisa in dieci capitoli, ognuno dei quali analizza una sfaccettatura dell'interpretazione da remoto; la prima parte verte sull'evoluzione storica delle nuove tecnologie nel mondo dell'interpretariato, con particolare attenzione all'introduzione degli impianti per l'interpretazione simultanea e delle Tecnologie dell'Informazione e della Comunicazione (TIC); si presentano inoltre i principali tipi di interpretazione a distanza, seguendo la loro comparsa in ordine cronologico, e i dispositivi necessari per effettuare una sessione di video-interpretazione. Nella seconda parte si descrivono alcuni ambiti di applicazione del RI (RI per non udenti, in ambito giuridico, in ambito medico-sanitario) e si illustra la situazione a livello mondiale passando in rassegna, a titolo di esempio, alcune aziende presenti in Australia, Stati Uniti, Germania, Austria e Gran Bretagna. Nella terza parte si presentano alcuni regolamenti e disposizioni raccomandati da associazioni di categoria e dalle istituzioni europee e si analizzano i principali vantaggi e svantaggi del RI. Nella quarta parte si mettono a confronto le caratteristiche e il tipo di formazione di un interprete che lavora in situ con quelle di un interprete che lavora a distanza, illustrando alcune strategie sviluppate dagli interpreti durante le sessioni di RI. L'ultima parte riguarda l'azienda VEASYT, la quale viene presentata come case study italiano, descrivendo la sua piattaforma per il servizio di interpretariato da remoto e la modalità di reclutamento degli interpreti. In conclusione si trova la proposta di seminario da tenere ipoteticamente alla SLLTI di Forlì, che viene articolata seguendo la successione dei capitoli precedenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il settore dell’ingegneria clinica comprende la progettazione e la realizzazione dei sistemi informatici di gestione dell’informazione clinica. Col passare degli anni, a questi campi se ne è aggiunto un altro: la telemedicina. I campi di applicazione della telemedicina sono numerosissimi e in continua evoluzione. Nello specifico, la tesi tratterà della gestione delle persone diabetiche tramite monitoraggio remoto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è cercare un'evidenza quantitativa a supporto dell'idea idea che la nonlinearità sia una risorsa per generare nonclassicità. Ci si concentrerà su sistemi unidimensionali bosonici, cercando soprattutto di connettere la nonlinearità di un oscillatore anarmonico, definito dalla forma del suo potenziale, alla nonclassicità del relativo ground state. Tra le numerose misure di nonclassicità esistenti, verranno impiegate il volume della parte negativa della funzione di Wigner e l'entanglement potential, ovvero la misura dell'entanglement prodotto dallo stato dopo il passaggio attraverso un beam splitter bilanciato avente come altro stato in ingresso il vuoto. La nonlinearità di un potenziale verrà invece caratterizzata studiando alcune proprietà del suo ground state, in particolare se ne misurerà la non-Gaussianità e la distanza di Bures rispetto al ground state di un oscillatore armonico di riferimento. Come principale misura di non-Gaussianità verrà utilizzata l'entropia relativa fra lo stato e il corrispettivo stato di riferimento Gaussiano, avente la medesima matrice di covarianza. Il primo caso che considereremo sarà quello di un potenziale armonico con due termini polinomiali aggiuntivi e il ground state ottenuto con la teoria perturbativa. Si analizzeranno poi alcuni potenziali il cui ground state è ottenibile analiticamente: l'oscillatore armonico modificato, il potenziale di Morse e il potenziale di Posch-Teller. Si andrà infine a studiare l'effetto della nonlinearità in un contesto dinamico, considerando l'evoluzione unitaria di uno stato in ingresso in un mezzo che presenta una nonlinearità di tipo Kerr. Nell'insieme, i risultati ottenuti con tutti i potenziali analizzati forniscono una forte evidenza quantitativa a supporto dell'idea iniziale. Anche i risultati del caso dinamico, dove la nonlinearità costituisce una risorsa utile per generare nonclassicità solo se lo stato iniziale è classico, confermano la pittura complessiva. Si sono inoltre studiate in dettaglio le differenze nel comportamento delle due misure di nonclassicità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi sono state applicate le tecniche del gruppo di rinormalizzazione funzionale allo studio della teoria quantistica di campo scalare con simmetria O(N) sia in uno spaziotempo piatto (Euclideo) che nel caso di accoppiamento ad un campo gravitazionale nel paradigma dell'asymptotic safety. Nel primo capitolo vengono esposti in breve alcuni concetti basilari della teoria dei campi in uno spazio euclideo a dimensione arbitraria. Nel secondo capitolo si discute estensivamente il metodo di rinormalizzazione funzionale ideato da Wetterich e si fornisce un primo semplice esempio di applicazione, il modello scalare. Nel terzo capitolo è stato studiato in dettaglio il modello O(N) in uno spaziotempo piatto, ricavando analiticamente le equazioni di evoluzione delle quantità rilevanti del modello. Quindi ci si è specializzati sul caso N infinito. Nel quarto capitolo viene iniziata l'analisi delle equazioni di punto fisso nel limite N infinito, a partire dal caso di dimensione anomala nulla e rinormalizzazione della funzione d'onda costante (approssimazione LPA), già studiato in letteratura. Viene poi considerato il caso NLO nella derivative expansion. Nel quinto capitolo si è introdotto l'accoppiamento non minimale con un campo gravitazionale, la cui natura quantistica è considerata a livello di QFT secondo il paradigma di rinormalizzabilità dell'asymptotic safety. Per questo modello si sono ricavate le equazioni di punto fisso per le principali osservabili e se ne è studiato il comportamento per diversi valori di N.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo capitolo di questo lavoro di tesi introduce i concetti di biologia necessari per comprendere il fenomeno dell’espressione genica. Il secondo capitolo descrive i metodi e le tecniche di laboratorio utilizzate per ottenere il cDNA, il materiale genetico che verrà amplificato nella real-time PCR. Nel terzo capitolo si descrive la tecnica di real-time PCR, partendo da una descrizione della PCR convenzionale fino a delineare le caratteristiche della sua evoluzione in real-time PCR. Si prosegue con la spiegazione del principio fisico alla base della tecnica e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM. e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fissazione esterna ha subito una forte evoluzione nel corso degli anni, passando dall’essere una tecnica utilizzata esclusivamente nella stabilizzazione delle fratture, fino a diventare una risorsa importante in ortopedia ricostruttiva per il trattamento di molte patologie ossee e dei tessuti molli. Il prototipo di fissatore esterno monolaterale articolato Kore (Citieffe S.r.l.), oggetto di questo studio, consente di effettuare correzione di deformità angolari e piccoli allungamenti su ossa lunghe. Il lavoro sperimentale si è concentrato sul testare le prestazioni meccaniche del dispositivo e della sua componentistica, con l'obiettivo di mettere in evidenza eventuali problemi. I risultati sono stati confrontati con quelli ottenuti in prove realizzate precedentemente in azienda, e con quelli ricavati su dispositivi concorrenti da altri autori. Sono state svolte una prova di compressione assiale statica, una prova a fatica di compressione assiale, una prova a flessione a quattro punti ed una prova di regolazione dinamometrica sul meccanismo di attuazione del dispositivo. E’ stata poi progettata una configurazione per studiare le principali caratteristiche dei morsetti. Nel caso del morsetto a compensazione si è verificata l'effettiva capacità di scorrimento del morsetto, mentre nel morsetto a traliccio, dotato di un meccanismo di snodo, ne viene accertata la tenuta. Al termine dei test, in base ai risultati raccolti dalle prove meccaniche e dalle prove svolte su osso artificiale, sono state fatte valutazioni riguardanti alcune modifiche da apportare al prototipo. Per quanto riguarda il dispositivo dovrà essere ridotta la dimensione del corpo centrale, al fine di avere un dispositivo più duttile, leggero e vicino al corpo. Questa modifica inoltre limiterà l'influenza della flessione delle pins sul comportamento meccanico del fissatore, migliorandone le prestazioni. Relativamente al morsetto a traliccio dovrà essere ridotta la lunghezza dello snodo, per limitare lo sforzo sulla vite di serraggio del meccanismo. Nel morsetto a compensazione dovrà essere modificato il profilo, per garantire un migliore scorrimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All’interno di questo elaborato di tesi verrà proposto un Modello di Valutazione e Selezione delle Iniziative commerciali, costruito nel corso dell’esperienza di stage presso la società Astaldi. Nella parte iniziale del lavoro, verranno presentati dei concetti teorici che costituiscono il presupposto e la base per la costruzione del Modello. Il background di riferimento è quello di un’azienda che lavora nel mondo delle costruzioni, sviluppando progetti complessi a livello internazionale. Nel primo capitolo, dopo una breve introduzione sul Project Management, si prenderà in esame l’ambiente multiproject, un ambiente nel quale gran parte delle aziende si trova ad operare e nel quale opera anche l’Astaldi. Successivamente, partendo da queste considerazioni legate all’ambiente multi-progetto, verranno descritte le potenzialità ed i vantaggi di un approccio Project Portfolio Management, come evoluzione naturale del Project Management. Nell’ambito del Project Portfolio Management, verrà analizzata l’importanza del processo di selezione dei progetti per la costruzione del portafoglio e le relative tecniche di selezione. Nel secondo capitolo verranno presentate le Misure e gli Indicatori di performance definiti in letteratura. Verranno anche introdotti dei possibili Indicatori di Valutazione, la cui misurazione è particolarmente legata al Project Life Cycle: questi verranno fatti propri all’interno del Modello presentato che darà come output, proprio un Indicatore di Valutazione ex-ante del progetto. Nel terzo capitolo verrà illustrata la società Astaldi al fine di comprendere il più possibile il contesto in cui e per cui si è costruito tale Modello. Nel quarto ed ultimo capitolo sarà analizzato il Modello stesso, descrivendo le modalità con cui è stato realizzato, le modalità operative per la sua applicazione ed alcuni esempi esplicativi del suo utilizzo.