1000 resultados para Ottimizzazione di portafoglio metodo della programmazione dinamica


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il carcinoma a cellule basali (BCC) costituisce l'80 peercento dei tumori cutanei non-melanoma, rappresentando dunque il tumore maligno della cute più frequente nella popolazione generale. Tuttavia, non esistono ad oggi studi epidemiologici ampi ed approfonditi condotti su scala nazionale su questo tipo di neoplasia, poichè i tumori cutanei non-melanoma sono esclusi dal registro statistico dei tumori. A tale scopo presso la Dermatologia dell'Università di Bologna sono stati raccolti di tutti i casi di carcinoma basocellulare osservati dal 1 gennaio 1990 sino al 31 dicembre 2014, e sono stati rielaborati statisticamente. Il criterio di inclusione adottato è stato la positività per BCC all’esame istologico, sia in caso di biopsia semplice, sia in caso di asportazione radicale. Il progetto è stato svolto presso l’ambulatorio di chirurgia oncologica della nostra UO, così come il follow-up dei pazienti nei casi di recidività multiple o di comparsa di nuovi tumori cutanei. Ad oggi, tale neoplasia è risultata essere quella di più frequente osservazione nella Unità Operativa di Dermatologia dell’Università di Bologna. Non solo, la nostra casistica rimane quella più numerosa fino ad ora riportata in tutta Italia negli ultimi 24 anni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I GC rappresentano i laboratori ideali nei quali studiare la dinamica stellare e i suoi effetti sull'evoluzione stellare; infatti, sono gli unici sistemi astrofisici soggetti a quasi tutti i processi fisici noti nella dinamica stellare, entro il tempo scala dell'età dell'Universo. Questo lavoro di tesi si inserisce nell'ambito di un progetto di ricerca che mira ad una dettagliata caratterizzazione dell'evoluzione dinamica dei GC della Galassia. In particolare, la misura delle velocità radiali di un ampio campione di stelle poste a differenti distanze dal centro dell’ammasso permette di derivare il profilo di dispersione di velocità del sistema,il quale ne riflette lo stato dinamico ed è utile per verificare la possibile presenza di un buco nero di massa intermedia al centro dell'ammasso. Lo studio delle velocità radiali delle singole stelle può altresì fornire informazioni riguardo la distribuzione di massa del sistema,oltreché la presenza di un'eventuale rotazione. Inoltre, la conoscenza della sola distribuzione di densità non è sufficiente a vincolare univocamente i modelli e fornire una visione completa della fisica dei GC, in quanto ad ogni determinato profilo di densità possono corrispondere diverse condizioni dinamiche. La contemporanea conoscenza del profilo di dispersione di velocità e della eventuale curva di rotazione permette di rimuovere la degenerazione causata dalla sola conoscenza del profilo di densità. Seguendo un approccio multi-strumentale,è possibile campionare l'intera estensione radiale dell'ammasso globulare: con lo spettrografo FLAMES, le regioni esterne (da distanze di circa 20 arcsec dal centro fino al raggio mareale dell'ammasso), con lo spettrografo KMOS, quelle intermedie e con lo strumento IFU ad ottiche adattive SINFONI, le regioni centrali (pochi arcsec dal centro). Questo lavoro di tesi consiste nell'analisi di spettri ad alta risoluzione acquisiti con FLAMES per un grande campione di stelle (979) localizzate nelle regioni esterne dell'ammasso NGC 2808,con lo scopo di misurare le loro velocità radiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La definizione di «scrittura dell’interpretazione» comprime in una sola locuzione la descrizione dell’oggetto principale del nostro studio, ovvero il problema della trascrizione musicale, descritta, non tanto come un determinato genere musicale, quanto come una ragione di osmosi e interferenze tra il fatto compositivo e quello interpretativo. Ad una traversata di quel territorio ci si appresta incentrando la trattazione intorno alla figura e all’opera del giovane compositore e direttore Bruno Maderna, autore di diverse trascrizioni della cosiddetta musica antica (dall’Odhecaton A, Monteverdi, Viadana, Frescobaldi, Legrenzi, ed altri ancora). Attraverso gli esempi presentati si intende mostrare come l’approccio maderniano alla trascrizione musicale si giustifichi a partire dalla sua stessa teoria e pratica dell’interpretazione musicale, più che in base a concetti forti definiti sul versante della scrittura, quali ad esempio quelli di analisi e parodia. Pari attenzione si offre al contesto storico degli anni in cui egli gravita, opera e si afferma come musicista (1946-1952 circa), dedicando ampio spazio alle figure di Gian Francesco Malipiero, Angelo Ephrikian e Luigi Nono, autori a loro volta di trascrizioni e revisioni di opere del Cinquecento, del Seicento e del Settecento. Intorno ai loro rapporti viene fornita una documentazione significativa, in buona parte inedita o poco conosciuta dagli studiosi, resa disponibile grazie alle ricerche d’archivio di cui si avvantaggia la nostra trattazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato si pone l'obiettivo di sviluppare un controllo sensorless di posizione per un attuatore tubolare pentafase anisotropo a magneti permanenti. Le peculiarità degli attuatori tubolari sono molteplici: assenza di organi di trasmissione del moto; compattezza; elevate densità di forza e prestazioni nella dinamica, con una più ampia banda passante per il sistema di controllo; maggiore precisione, risoluzione, ripetibilità ed affidabilità. Tale tipologia di macchina è pertanto molto interessante in diverse applicazioni quali robotica, automazione, packaging, sistemi di posizionamento ecc., ed è altresì promettente nei settori aerospaziale e automotive. L'azionamento in studio è inoltre di tipo multifase. In tal caso si ottengono diversi vantaggi: possibilità di suddividere la potenza su un numero elevato di rami del convertitore; capacità di lavorare in condizioni di guasto; incremento della densità di coppia della macchina; possibilità di controllare in modo indipendente e con un solo inverter più macchine collegate in serie. Prestazioni migliori della macchina si possono ottenere con un opportuno sistema di controllo. Nel caso di azionamenti a magneti permanenti risulta particolarmente attraente il controllo di tipo sensorless della posizione rotorica, in alternativa ad un encoder o un resolver. Questo aumenta l'affidabilità, riduce i costi e diminuisce l'ingombro complessivo dell'azionamento. Appare molto interessante l'utilizzo di un azionamento tubolare di tipo multifase, e ancor più lo sviluppo di un apposito controllo di posizione di tipo sensorless. L’algoritmo sensorless di stima della posizione dell’attuatore può essere sviluppato partendo dall’anisotropia di macchina, sfruttando la possibilità peculiare delle macchine multifase di estrarre informazioni sullo stato attraverso i molteplici gradi di libertà presenti. Nel caso in questione si tratta del controllo della terza armonica spaziale del campo magnetico al traferro. Fondamentale è la definizione di un modello matematico in grado di rappresentare in modo opportuno l’anisotropia di macchina. In letteratura non sono ancora presenti modelli adatti a descrivere il dispositivo in questione; pertanto una parte essenziale della tesi è stata dedicata a definire tale modello e a verificarne la validità. Partendo dal modello è possibile dunque sviluppare un appropriato algoritmo di controllo sensorless e rappresentare in simulink l'intero azionamento. Nella parte conclusiva del lavoro di tesi vengono presentate le prove sperimentali, finalizzate alla determinazione dei parametri di macchina e alla verifica del funzionamento del sistema di controllo. Infine sono confrontati i risultati ottenuti rispetto a quelli realizzati con controlli di tipo tradizionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La determinazione del modulo di Young è fondamentale nello studio della propagazione di fratture prima del rilascio di una valanga e per lo sviluppo di affidabili modelli di stabilità della neve. Il confronto tra simulazioni numeriche del modulo di Young e i valori sperimentali mostra che questi ultimi sono tre ordini di grandezza inferiori a quelli simulati (Reuter et al. 2013)⁠. Lo scopo di questo lavoro è stimare il modulo di elasticità studiando la dipendenza dalla frequenza della risposta di diversi tipi di neve a bassa densità, 140-280 kg m-3. Ciò è stato fatto applicando una compressione dinamica uniassiale a -15°C nel range 1-250 Hz utilizzando il Young's modulus device (YMD), prototipo di cycling loading device progettato all'Istituto per lo studio della neve e delle valanghe (SLF). Una risposta viscoelastica della neve è stata identificata a tutte le frequenze considerate, la teoria della viscoelasticità è stata applicata assumendo valida l'ipotesi di risposta lineare della neve. Il valore dello storage modulus, E', a 100 Hz è stato identificato come ragionevolmente rappresentativo del modulo di Young di ciascun campione neve. Il comportamento viscoso è stato valutato considerando la loss tangent e la viscosità ricavata dai modelli di Voigt e Maxwell. Il passaggio da un comportamento più viscoso ad uno più elastico è stato trovato a 40 Hz (~1.1•10-2 s-1). Il maggior contributo alla dissipazione è nel range 1-10 Hz. Infine, le simulazioni numeriche del modulo di Young sono state ottenute nello stesso modo di Reuter et al.. La differenza tra le simulazioni ed i valori sperimentali di E' sono, al massimo, di un fattore 5; invece, in Reuter et al.⁠, era di 3 ordini di grandezza. Pertanto, i nostri valori sperimentali e numerici corrispondono meglio, indicando che il metodo qui utilizzato ha portato ad un miglioramento significativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della programmazione lineare in particolare nel caso in cui le variabili coinvolte o alcune di esse sono obbligate ad assumere valori interi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi si illustra il passaggio dagli spazi polinomiali agli spazi polinomiali generalizzati, gli spazi di Chebyshev estesi (spazi EC), e viene dato un metodo per costruirli a partire da opportuni sistemi di funzioni dette funzioni peso. Successivamente si tratta il problema dell'esistenza di un analogo della base di Bernstein negli spazi EC: si presenta, in analogia ad una particolare costruzione nel caso polinomiale, una dimostrazione costruttiva dell'esistenza di tale base. Infine viene studiato il problema delle lunghezze critiche di uno spazio EC: si tratta di determinare l'ampiezza dell'intervallo oltre la quale lo spazio considerato perde le proprietà di uno spazio EC, o non possiede più una base di Bernstein generalizzata; l'approccio adottato è di tipo sperimentale: nella tesi sono presentati i risultati ottenuti attraverso algoritmi di ricerca che analizzano le proprietà delle funzioni di transizione e ne traggono informazioni sullo spazio di studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio effettuato riguarda l’accrescimento giornaliero della Sardina pilchardus, (Walbaum, 1792) tramite la lettura degli anelli di crescita giornaliera negli otoliti. Nel Mediterraneo centrale il lavoro svolto è il primo di questo tipo su S. pilchardus. Il campionamento è avvenuto durante la campagna oceanografica "Anchevatir 2012", 69 otoliti sono stati estratti da esemplari con lunghezza totale compresa tra 7 ed 12.5 cm e successivamente sottoposti ad inclusione, sezionamento e levigatura per la realizzazione di sezioni sottili. Sull’intero campione è stata stimata l’età con due metodi: lettura degli anelli giornalieri sotto microscopio e conteggio dei microincrementi tramite analisi d’immagine. L’età stimata è compresa tra i 90 e 230 giorni, tuttavia la maggior parte degli individui presenta un’età tra i 120 e 150 giorni. Inoltre è stata determinata la data di nascita degli esemplari, avvenuta tra Dicembre 2011 e Febbraio 2012. In seguito è stata condotta un’analisi della media dell’ampiezza degli incrementi per descrivere i pattern di crescita giornaliera: l’andamento risultante è crescente con il procedere dell’età fino a circa il 50° giorno, poi si stabilizza fino al 150°, infine i valori medi decrescono. La backcalculation ha permesso di stimare il tasso di accrescimento giornaliero della lunghezza del corpo. Sono state analizzate tre serie distinte per data di nascita (Dicembre 2011, Gennaio 2012 e Febbraio 2012); queste hanno mostrato pattern di accrescimento analogo. La crescita iniziale stimata è di 0.2 mm/d, raggiunge 0.6 mm/d intorno al 40° giorno, ed oltre il 100° si è osservato un decremento nell’accrescimento giornaliero, soprattutto nella serie di Dicembre. Le differenze più rilevanti nei pattern delle tre serie mensili sono state riscontrate nei valori medi fra Dicembre e Febbraio. L’analisi della temperatura media superficiale ha permesso di ipotizzare che questa crescita maggiore degli individui nati in Febbraio sia collegata all’aumento di temperatura registrato da Marzo in poi. Tale risultato suggerisce che le condizioni ambientali e quindi i ritmi metabolici e d’accrescimento nei mesi successivi a Febbraio sono più favorevoli rispetto ai mesi invernali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo studio è stato sviluppato attraverso il monitoraggio idrogeologico di sorgenti e piezometri al fine di individuare il rischio di eventuali influenze causate dai lavori di ampliamento a 4 corsie di un tratto della S.S. 223 di Paganico (tratta Grosseto – Siena ) che prevede la costruzione di nuovi tratti di galleria ubicati nell’area. Il tratto di interesse per la presente tesi va dal km 30+040 al km 41+600 della tratta Siena-Grosseto, corrispondente ai lotti 5, 6, 7 e 8. I lavori riguardano i comuni di Monticiano (provincia di Siena) e Civitella Paganico (provincia di Grosseto), lungo la valle del Fiume Merse in un’area ad elevato pregio ambientale presso la confluenza con il Torrente Farma. Le attività di cantiere nel tratto interessato sono iniziate nel Dicembre 2013; si stima che le opere saranno completate per Luglio 2015. Il lavoro di tesi sul campo è stato svolto con il supporto tecnico della società di consulenza geo-ingegneristica di Bologna Studio Mattioli s.r.l. la quale ha ricevuto l’incarico del monitoraggio idrogeologico dal Gruppo Strabag che si occupa di costruzione di grandi infrastrutture. Il lavoro sul campo è consistito in un’attività di monitoraggio idrogeologico, anche tramite sensori in continuo, per più di 1 anno idrologico (novembre 2013- Gennaio 2015), su sorgenti e piezometri captanti acque sia fredde che termali. Il monitoraggio è stato basato sia su un approccio in discontinuo che in continuo. I punti di monitoraggio sono situati presso la località dei Bagni di Petriolo a cavallo tra la provincia di Siena e di Grosseto. I dati relativi alle sorgenti raccolti mensilmente sono la portata ed i parametri fisico-chimici in situ. Per piezometri i dati raccolti mensilmente sono il livello piezometrico ed i medesimi dati fisico-chimici raccolti per le sorgenti. I dati raccolti sono serviti a formulare il modello idrogeologico concettuale del sito ed a valutare le potenzialità d’interferenza idrogeologica delle gallerie sul sistema idrico sotterraneo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.