886 resultados para Materiali mancanti, pianificazione della produzione, gestione dei materiali, Supply Chain
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
Il presente documento intende illustrare l’applicazione delle moderne teorie dell’affidabilità, delle politiche manutentive e della gestione dei ricambi in ambito aeronautico. Partendo dall’utilizzo di dati forniti da un’azienda operante nel settore è stato elaborato uno studio sperimentale con lo scopo di ricercare la miglior politica manutentiva, con l'obiettivo di minimizzare i costi di manutenzione e di gestione delle scorte a magazzino. La ricerca dell’ottimizzazione dei costi di gestione, senza penalizzare qualità ed efficienza, rappresenta infatti sempre di più un fattore competitivo per le aziende. Lo sviluppo sperimentale si è svolto tramite software specialistici utilizzati nel campo dello studio dell’affidabilità: tramite Weibull++® si sono valutati i parametri delle distribuzioni che descrivono la probabilità di guasto dei singoli componenti e, a partire da questi dati, sono state studiate le possibili politiche manutentive per ciascun componente ed i costi relativi in BlockSim®. Dapprima sono state confrontate diverse strategie manutentive: correttiva pura e preventiva. Alla scelta della miglior politica manutentiva è stata affiancato lo studio delle strategie di gestione del magazzino, al fine di individuare la più efficace. Sia lo studio della manutenzione che quello della gestione del magazzino sono stati affiancati dalla valutazione di impatto economico.
Resumo:
La tesi di Matteo Allodi intende analizzare alcune pratiche socio-assistenziali rivolte a minori e famiglie in difficoltà relative a progetti di accoglienza presso alcune strutture residenziali. In particolare, Matteo Allodi si sofferma su progetti di accoglienza elaborati presso alcune Comunità familiari la cui metodologia d’intervento si caratterizza per un orientamento verso un modello di lavoro sociale di tipo sussidiario nell’ottica del recupero dei legami e delle competenze genitoriali. La tesi affronta nella prima parte la dimensione teorica relativa a un approccio progettuale di intervento sociale che, mettendo al centro le relazioni dei soggetti in gioco, possa promuovere la loro attivazione in funzione della realizzazione dell’obiettivo del recupero della genitorialità. Allodi si concentra dal punto di vista teorico sulle modalità di realizzazione di un servizio alla persona guidato dal principio di sussidiarietà, ovvero orientato alla valorizzazione delle capacità riflessive degli attori. Nella seconda, parte Allodi presenta l’indagine condotta in alcune Comunità di tipo familiare di Parma. La strategia iniziale d’indagine è quella del case study. Allodi sceglie di indagare il fenomeno partendo da un’osservazione partecipata di orientamento etnometodologico integrata con interviste agli attori privilegiati. In questa fase si è proceduto a una prima ricerca qualitativa, attraverso la metodologia dello studio di caso, che ha permesso di entrare in contatto con alcune tipologie di strutture residenziali per minori al fine di completare il quadro generale del fenomeno delle Comunità familiari e impostare una prima mappatura esplorativa. La ricerca prosegue con uno studio longitudinale prospettico volto a monitorare e valutare il lavoro di rete della comunità e dei servizi, osservando principalmente la mobilitazione verso l’autonomia e l’empowerment dei soggetti (minori) e delle reti ancorate al soggetto (single case study). Si è voluto comprendere quali modalità relazionali gli attori della rete di coping mettono in gioco in funzione del “cambiamento sociale”.
Resumo:
In questa tesi sono illustrate alcune sperimentazioni finalizzate alla standardizzazione del ciclo produttivo della sogliola comune (Solea solea) in cattività. E’ stato creato un parco di riproduttori selvatici ed è stata standardizzata la riproduzione ad un livello compatibile con la realtà produttiva del settore. Indagini genetiche di assegnazione parentale hanno evidenziato come alcuni esemplari siano stati predominanti negli accoppiamenti e nel conseguente contributo alla generazione della prole. Ciò ha determinato una diminuzione della variabilità genetica dei discendenti. La composizione quali-quantitativa degli acidi grassi delle uova è stata correlata con la sopravvivenza larvale nel corso di un’intera stagione riproduttiva. Tale composizione non ha subito importanti variazioni su scala temporale e sembra essere stata influenzata dall’alimentazione somministrata ai riproduttori nel periodo precedente alla riproduzione. Le analisi di interazione tra momento riproduttivo e qualità delle uova hanno confermato che è stato possibile ottenere uova di buona qualità in termini di sopravvivenza larvale nel corso di tutta la stagione riproduttiva. Larve di sogliola sono state svezzate precocemente 13 giorni dopo la schiusa riducendo l’impiego di cibo vivo a favore di micro diete commerciali. Tale svezzamento ha ridotto le performance di accrescimento, ma non la sopravvivenza e lo sviluppo della metamorfosi quando comparati ad un trattamento standard. La riduzione del cibo vivo ha ottimizzato i costi di produzione e migliorato l’igiene in vasca. L’ontogenesi di precursori di enzimi digestivi è stata determinata tramite PCR quantitativa. I risultati di espressione di tripsinogeno, chimotripsinogeno e amilasi hanno mostrato come tali enzimi rivestano un ruolo chiave nei processi digestivi delle prime fasi larvali. Esemplari giovanili hanno ottenuto un significativo maggiore indice di accrescimento e migliore indice di conversione quando alimentati con diete sperimentali contenenti un elevato tenore proteico. Un aumento dell’incidenza di vacuoli lipidici a livello epatico è stato osservato all’aumentare del tenore proteico della dieta.
Resumo:
Nonostante il fatto che una gran parte del mondo viva ancora oggi a livelli di sussistenza, i dati in nostro possesso ci indicano che le attività umane stanno esaurendo le risorse ambientali del pianeta. La causa di questo eccessivo sfruttamento delle risorse è da ricercare nei pattern non sostenibili di produzione e consumo dei paesi sviluppati. La preoccupazione per le conseguenze sull'ambiente e la lotta al cambiamento climatico hanno posto le politiche ambientali al centro dell'attenzione internazionale. Il Protocollo di Kyoto e la Commissione Europea hanno stabilito degli obiettivi di riduzione delle emissioni di gas serra, rispettivamente del 12% entro il 2012 e del 20% entro il 2020. All'interno del Protocollo di Kyoto l'obiettivo per l'Italia è ridurre del 6,5% le emissioni di gas serra nazionali rispetto al 1990. Le politiche mirate alla riduzione delle emissioni di gas serra hanno in genere come obiettivo gli impianti energetici e i trasporti. Poca attenzione viene data alla filiera agroalimentare pur sapendo che l'agricoltura ha un forte impatto sull'ambiente e recenti studi stimano che circa il 50% del cibo prodotto viene perso o buttato via dalla produzione al consumo. Alla luce di questi dati, il mio lavoro di tesi ha avuto come obiettivo quello di quantificare i rifiuti e gli sprechi agroalimentari in Europa e in Italia e stimare l'impatto ambientale associato. I dati raccolti in questa tesi mettono in evidenza l'importanza di migliorare l'efficienza della filiera agroalimentare per ridurre l'impatto ambientale nazionale e rispettare gli accordi internazionali sulla lotta ai cambiamenti climatici.
Resumo:
This research deals with the deepening and use of an environmental accounting matrix in Emilia-Romagna, RAMEA air emissions (regional NAMEA), carried out by the Regional Environment Agency (Arpa) in an European project. After a depiction of the international context regarding the widespread needing to integrate economic indicators and go beyond conventional reporting system, this study explains the structure, update and development of the tool. The overall aim is to outline the matrix for environmental assessments of regional plans, draw up sustainable reports and monitor effects of regional policies in a sustainable development perspective. The work focused on an application of a Shift-Share model, on the integration with eco-taxes, industrial waste production, energy consumptions, on applications of the extended RAMEA as a policy tool, following Eurostat guidelines. The common thread is the eco-efficiency (economic-environmental efficiency) index. The first part, in English, treats the methodology used to build a more complete tool; in the second part RAMEA has been applied on two regional case studies, in Italian, to support decision makers regarding Strategic Environmental Assessments’ processes (2001/42/EC). The aim is to support an evidence-based policy making by integrating sustainable development concerns at all levels. The first case study regards integrated environmental-economic analyses in support to the SEA of the Regional Waste management plan. For the industrial waste production an extended and updated RAMEA has been developed as a useful policy tool, to help in analysing and monitoring the state of environmental-economic performances. The second case study deals with the environmental report for the SEA of the Regional Program concerning productive activities. RAMEA has been applied aiming to an integrated environmental-economic analysis of the context, to investigate the performances of the regional production chains and to depict and monitor the area where the program should be carried out, from an integrated environmental-economic perspective.
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
Le sperimentazioni riguardanti la produzione di biodiesel da alghe sono state condotte solo in laboratorio o in impianti pilota e il processo produttivo non è ancora stato sviluppato su scala industriale. L’obiettivo di questo lavoro di tesi è stato quello di valutare la potenziale sostenibilità ambientale ed energetica della produzione industriale di biodiesel da microalghe nella realtà danese ipotizzando la coltivazione in fotobioreattori. La tesi ha analizzato le diverse tecnologie attualmente in sperimentazione cercando di metterne in evidenza punti di forza e punti di debolezza. La metodologia applicata in questa tesi per valutare la sostenibilità ambientale ed energetica dei processi analizzati è LCA strumento che permette di effettuare la valutazione sull’intero ciclo di vita di un prodotto o di un processo. L’unità funzionale scelta è 1 MJ di biodiesel. I confini del sistema analizzato comprendono: coltivazione, raccolta, essicazione, estrazione dell’olio, transesterificazione, digestione anaerobica della biomassa residuale e uso del glicerolo ottenuto come sottoprodotto della transesterificazione. Diverse categorie d’impatto sono state analizzate. In questo caso studio, sono stati ipotizzati 24 diversi scenari differenziati in base alle modalità di coltivazione, di raccolta della biomassa, di estrazione dell’olio algale. 1. la produzione di biodiesel da microalghe coltivate in fotobioreattori non appare ancora conveniente né dal punto di vista energetico né da quello ambientale. 2. l’uso di CO2 di scarto e di acque reflue per la coltivazione, fra l’altro non ancora tecnicamente realizzabili, migliorerebbero le prestazioni energetiche ed ambientali del biodiesel da microalghe 3. la valorizzazione di prodotti secondari svolge un ruolo importante nel processo e nel suo sviluppo su larga scala Si conclude ricordando che il progetto di tesi è stato svolto in collaborazione con la Danish Technical University of Denmark (DTU) svolgendo presso tale università un periodo di tirocinio per tesi di sei mesi
Resumo:
Characteristics of modern food demand force retailers to acquire more information about product process along the food supply chain to ensure that product are in accordance with consumer preference. Therefore, the product process involves more information flows between buyer and supplier which requires collaborative efforts. These changes translate into several studies on the inter-organizational relationship in agri-food systems. Studies on inter-organizational relationships have been conducted in various academic disciplines, including sociology, psychology, law, economics, marketing, management, and combination of these. Inter-organizational relationships is an interaction between organizations which involved firms horizontally, as well as, vertically. In this study we deal with vertical, buyer-seller relationship which are sometimes referred to chain relationships. We define vertical business relationship in the agriculture-food based sector as “agri-food chain relationships”. The focus is on sustainable inter-organizational relationships in a way that they can be scientifically investigated. We study characteristics which ensure that a relationship is long-lasting and rewarding for all involved parties in the sardinian dairy. We test the theoretical model using structural equation modeling. The results suggest that the most important determinant for the relationships is technology and the price isn’t significant for the relationship governance.
Resumo:
L'obiettivo della tesi è stato quello di indagare il complesso problema della vulnerabilità sismica dei ponte in muratura ad arco utilizzando modelli semplificati. Dopo una descrizione dei materiali da costruzione impiegati nella realizzazione e dei principali elementi dei un ponti in muratura, si è indirizzato lo studio di un ponte ad arco situato nel comune di San Marcello Pistoiese. Viene mostrato un modello numerico che permette di descrivere il comportamento strutturale del ponte sotto azione sismica e di valutare la capacità di carico del ponte sottoposto ad una azione trasversale. In un secondo momento viene descritta la realizzazione di un modello in scala del ponte, che è stato sottoposto a prove distruttive effettuate per valutare la capacità di carico del ponte rispetto ad un ipotetica azione orizzontale. Si è cercato poi di inquadrare il problema in un modello teorico che faccia riferimento all'analisi limite. Esso descrive un cinematismo di collasso a telaio che prende spunto dal quadro fessurativo del modello in muratura. Infine sono stati presentati modelli FEM numerici in ordine di complessità crescente, cercando di inquadrare il comportamento meccanico del prototipo del ponte. Tre tipi di modelli sono rappresentati: un telaio incernierato alle estremità costituito da elementi beam con resistenza alla flessione . Il secondo tipo è costituito da una reticolare equivalente che mima lo schema del ponte ed è formato solo da bielle. Infine, il terzo tipo cerca di descrivere l'intero modello con elementi tridimensionali.
Resumo:
Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.
Resumo:
Apprendere nelle organizzazioni, analisi della letteratura afferente con particolare attenzione al modello della "learning organization". Applicazioni e casi pratici per un raffronto con gli aspetti teorici precedentemente approfonditi e per l'individuazione dei trend attuali della gestione della conoscenza e dei processi di apprendimento all'interno delle organizzazioni con particolare attenzione al mondo del business internazionale.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.