288 resultados para dimensione insieme parzialmente ordinato etichettamento doppio diagramma di Hasse
Resumo:
Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.
Resumo:
Tutte le attività che utilizzano acqua nel ciclo produttivo, inevitabilmente la sporcano, l'acqua che si prende pulita deve essere restituire "pulita". Basta pensare agli scarichi fognari: ognuno di noi prende a casa propria acqua pulita dall'acquedotto e la restituisce alla rete fognaria sporca. Pensiamo allo scarico della lavastoviglie, della lavatrice, della doccia e via di seguito. Gli impianti di depurazione sono quegli impianti che hanno il compito di depurare l'acqua, sia per il rispetto dei corpi ricettori allo scarico, sia per il possibile riutilizzo. Naturalmente le normative regolano la qualità dell'acqua e gli enti di controllo vigilano sul rispetto delle leggi. Ovviamente ogni carico inquinante insieme ai volumi giornalieri e agli spazi a disposizione, impone una scelta tecnica diversa per la depurazione. In un impianto di trattamento inerti, materiale di cava a basso valore di mercato, è importante riutilizzare ogni prodotto ricavato dal processo. Di seguito viene considerato il caso specifico dei limi di lavaggio inerti: “patata bollente” per tutte le aziende e soggetto di numerose discussioni in quanto è un argomento complesso da più punti di vista. Il materiale in esame, denominato “limo da lavaggio inerti”, rappresenta lo scarto della lavorazione degli inerti stessi provenienti dalle cave di ghiaia e sabbia in un impianto di produzione di inerti. Questi impianti eseguono sui materiali di cava le operazioni di macinazione, vagliatura, classificazione, slimatura e recupero dei fini. Dunque l’acqua, che proviene dai processi di macinazione, vagliatura e lavaggio del materiale, trascina con sé impurità di origine organica e argillosa, ma soprattutto finissimi in sospensione: i limi. Essi generano un inquinamento dell’acqua il cui aspetto visibile (la colorazione dell’acqua) è il meno pericoloso, infatti suddette sospensioni, dopo lo scarico delle torbide in fiumi, laghi o mare, generano depositi sulle rive che possono causare deviazioni del corso stesso nel caso dei corsi d’acqua; o ancor più grave la impermeabilizzazione dei terreni attraversati con le relative conseguenze in campo agricolo, e ancora il mancato approvvigionamento delle falde acquifere per l’impossibilità da parte dell’acqua superficiale di penetrare nel terreno. Essa dunque, necessita di trattamenti specifici per separare questi solidi in sospensione e consentirne il suo reimpiego nell’impianto stesso almeno in buona percentuale e di conseguenza la diminuzione di nuova acqua fresca necessaria. Per fortuna l’inquinamento è solo “fisico” e molto si può fare per ridurlo, esistono infatti macchinari specifici per eliminare dall’acqua gli elementi inquinanti e restituirla (quasi) limpida.
Resumo:
L'obiettivo di questa tesi sperimentale è quello di effettuare una reazione di addizione coniugata di Michael di sistemi 1,3-dicarbonilici atroposelettiva su substrati maleimmidici oppurtanamente sostituiti, catalizzata da derivati di alcaloidi naturali della Cinchona. Tale processo risulta importante ed innovativo in quanto si vuole ottenere una reazione di desimmetrizzazione atroposelettiva, contemporaneamente dell'asse prochirale e dei due atomi di carbonio del doppio legame della maleimmide stessa. Partendo dalla reazione di addizione del 2-acetilciclopetanone sulla (N-(2-tert- Butil)fenil)maleimmide, mediante reazioni di screening sono state determinate le condizioni ottimali. Si è poi proceduto a verificare l'estendibilità della reazione verso differenti substrati. Infine si è verificata la stabilità dell'asse di rotazione bloccato neosintetizzato. La sintesi di tali composti è importante per la possibilità di poter successivamente derivatizzare i gruppi sostituenti, in modo da creare building blocks per lo sviluppo di molecole ben più complesse.
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
Il presente lavoro di tesi inizia da un’indagine svolta durante il Laboratorio di Sintesi Finale sulla città di Bogotá. Nello specifico ci si è occupati dello studio di una parte ristretta della città: la CUB, la città universitaria di Bogotá. Sì è in primo luogo analizzato gli aspetti salienti di quella parte di città, mettendone in evidenza sia gli elementi caratteristici che le criticità. Questo studio ha condotto alla definizione di alcune problematiche che, per importanza, sono state il centro del progetto successivamente proposto. La sintesi preliminare ha così prodotto una prima ipotesi progettuale che è stata il punto di partenza dello studio successivo. Nella fase successiva invece si è operato per un ulteriore approfondimento, passando sul piano reale e affrontando i temi scelti per l’area della Ciudad Universitaria de Bogotá. La CUB rappresenta il fulcro dell’offerta universitaria statale di Bogotá e i piani di sviluppo per il futuro la vedranno assoggettata ad un processo di forte saturazione delle aree ancora libere. Visto la dimensione di questo luogo, si è optato per la definizione di una possibile metodologia di intervento, più soddisfare il desiderio (a volte irrinunciabile) di ridefinizione della sua struttura interna, oggi particolarmente degradata. L’idea trova il suo senso anche nel desiderio di potere generare una maggiore integrazione tra l’uso degli spazi della CUB e i cittadini, che attualmente sono esclusi, primariamente per ragioni di sicurezza, dalla possibilità di godere di questo luogo. Il testo mette in evidenza, mediante un processo per tappe, il percorso intellettuale che ha portato alla definizione delle scelte progettuali rappresentate nelle tavole finali.
Resumo:
si vuole studiare la struttura atomica di cluster di argento su ceria, si è utilizzata la spettroscopia di assorbimento di raggi x con luce di sincrotrone. Le misure sono state effettuate all'Esrf di Grenoble e si sono analizzati gli spettri EXAFS di diversi spessori equivalenti di argento (1.5Å , 0.7Å, 0.2Å, 0.1Å). Si tratta il processo di produzione della luce di sincrotrone e le sue proprietà caratteristiche. In particolare si descrive la strumentazione ottica utilizzata: specchi riflettenti per raggi X e monocromatore con geometria a doppio cristallo.
Resumo:
Attualmente Usme, caratterizzata come visto da un territorio principalmente a bassa densità, è ancora fortemente relazionata con la campagna perché costituita dall’insieme di aree agricole, o di quelli che una volta erano spazi coltivati più prossimi alla città compatta. Questo tipo di paesaggio rurale che caratterizza Usme è caratterizzato come già visto da un tessuto sfrangiato e discretizzato e rappresenta la porzione di territorio dove la città esercita l’impatto ambientale più intenso dovuto sia alla sua immediata vicinanza al contesto urbano che al carattere di scarsa identità che sembra esprimere. Qualunque intervento architettonico in un territorio di margine come quello di Usme dovrebbe confrontarsi con un sistema di relazioni a grande scala, che si rapporti con la geografia stessa del luoghi e con un orientamento e una misurazione visiva e fisica del territorio stesso. Allo stesso modo è necessario che il progetto comprenda anche il suolo stesso delle grande aree attualmente lasciate libere, ovvero che il progetto architettonico si integri con il progetto paesaggistico creando in questo modo nuove relazioni e nuove geometrie nell’assetto territoriale. In questo senso il progetto può dialogare con il territorio e mettere in relazione differenti situazioni morfologiche, sfruttandone le potenzialità. L’obiettivo è quindi quello di non costruire semplici volumi appoggiati sulla terra ma quello di modificare la terra stessa, entrando in relazione con essa in modo profondo. Il progetto così inteso è concepito, e prima ancora letto, secondo strati, i quali possono contaminarsi o possono semplicemente sovrapporsi. L’area di progetto, come già detto, è essenzialmente all’interno di un vuoto presente tra le due parti di città. Il nuovo edificio si conforma come un segno netto nel territorio, un viadotto, un tronco d’albero caduto che protegge il parco dalla città, un elemento primordiale che da una parte si incunea nel terreno e dall’altra si affaccia sulla valle. Vuole essere il segno di un naturale artificio, proponendosi al tempo stesso come simbolo e funzione. Il museo emerge dalla terra, ma sembra anche immergersi in essa. L’architettura del museo crea un nuovo paesaggio morfologicamente radicato al suolo, attraverso uno spazio parzialmente ipogeo che integra il museo all’interno della montagna attraverso la copertura continua con la topografia esistente, sottolineando il profilo della collina.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Nel contesto economico odierno i sistemi di raccomandazione rappresentano uno strumento utile al fine di aumentare le vendite con pubblicità e promozioni su misura per ciascun utente. Tali strumenti trovano numerose applicazioni nei siti di e-commerce, si pensi ad Amazon o a MovieLens. Esistono diverse tipologie di sistemi di raccomandazione, che si differenziano principalmente per il modo con cui sono prodotte le raccomandazioni per gli utenti. In questa tesi se ne vuole definire una nuova tipologia, che superi la restrizione del vincolo ad un sito a ad una società, fornendo agli utenti raccomandazioni di prodotti acquistabili in negozi reali e il più possibile accessibili, nel senso geografico del termine. Si e inoltre astratto il concetto di raccomandazione, passando da un insieme omogeneo di oggetti ad un insieme eterogeneo di entità ottenibili attraverso lo svolgimento di attività. Con queste premesse il sistema da definire dovrà raccomandare non più solo entità, ma entità e shop presso i quali sono disponibili per le persone.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
La tesi analizza la problematica della mancanza di redattori di diagrammi E-R in grado di realizzare schemi relazionali basati sulla notazione di Chen e sulla notazione estesa. In particolare, dopo un'analisi di pregi e difetti sullo stato dell'arte dei principali strumenti già esistenti (in grado di realizzare diagrammi E-R con altre notazioni), si passa a descrivere nel dettaglio l'applicativo SharpER Diagram Editor, un progetto ex novo che consente la redazione di diagrammi E-R in notazione estesa. Vengono accuratamente descritte le varie fasi che hanno portato alla realizzazione del progetto, dall'analisi dei requisiti e la modellazione, all'implementazione e al test. Per finire vengono forniti interessanti spunti per poter proseguire il lavoro iniziato, il che è reso possibile dalla licenza con cui il software viene rilasciato ossia GPLv3.
Resumo:
Prima di fornire una formulazione esaustiva dell'onda d'urto, è d'uopo definire il gas come oggetto fisico e le sue principali caratteristiche. Quanto si farà nei paragrafi seguenti quindi, sarà tentare di formalizzare il sistema gassoso dal punto di vista fisico e matematico. Sarà necessario introdurre un modello del sistema (par. 1.1) che ci permetta di lavorare a livello statistico sull'insieme di particelle che lo compongono per caratterizzare le funzioni termodinamiche classiche come medie temporali. Tramite queste considerazioni si stabilirà quali sono le quantità che si conservano nel moto di un fluido e si vedrà che tali leggi di conservazione formano un sistema di 5 equazioni differenziali parziali in 6 incognite. Tramite la linearizzazione di questo sistema si individueranno delle soluzioni chiamate onde sonore che danno un'indicazione sul modo in cui si propagano delle perturbazioni all'interno di un fluido; in particolar modo saranno utili per la determinazione del numero di Mach che rende possibile la distinzione tra due regimi: subsonico e supersonico (par. 1.2). Sarà possibile, a questo punto, indagare il fenomeno dell'onda d'urto (par. 2.1) e, nel dettaglio, due casi particolarmente utili in contesto astrofisico quali: l'onda d'urto per un gas politropico (par. 2.2), un'onda d'urto sferica che avanza verso il suo centro (2.2). Lo scopo di questa trattazione è indagare, o se non altro tentare, quanto avviene in un'esplosione di Supernova (par. 3). Relativamente a questo fenomeno, ne viene data una classificazione sommaria (par. 3.1), mentre particolare attenzione sarà rivolta alle Supernovae di tipo Ia (par. 3.2) che grazie alla loro luminosità standard costituiscono un punto di riferimento nell'Universo visibile.
Resumo:
All’interno della Riserva Marina di Miramare, in particolare nella zona A, vengono svolte da sempre attività di balneazione a scopo educativo, didattico e di visita guidata, autorizzate dall’Ente Gestore. In questo studio, è stato scelto un set significativo di specie, su cui verificare un livello di efficacia di gestione rispetto al possibile impatto causato da attività svolte in snorkeling, in particolare seawatching e mini corsi di biologia marina per bambini. Per prima cosa, con l’utilizzo di un GPS, si è voluto caratterizzare l’itinerario svolto dalle attività, come un insieme di punti, e questa procedura è stata ripetuta più volte per avere una rappresentazione realistica del percorso. In seguito attraverso QGIS, è stato possibile creare delle Mappe di concentrazione dei punti, per individuare i siti in cui i turisti, che si apprestano a svolgere le attività, si soffermano maggiormente ad osservare gli organismi sottostanti, in questo modo sono state evidenziate delle aree lungo il percorso, caratterizzate da un maggiore impatto antropico. Il campionamento in acqua si è svolto in queste aree, attraverso l’ausilio di transetti, lungo i quali sono stati presi dati di presenza/assenza inerenti al set di specie preso in considerazione. A ciascuna specie, sono stati poi attribuiti dei criteri: Vulnerabilità, Valore eco-naturalistico, Diffusione, Valore estetico e Valore economico, per mezzo dei quali sono state individuate le specie che necessitano di maggiore attenzione, in quanto potrebbero subire danni a causa delle attività che si svolgono in Riserva.
Resumo:
L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.
Resumo:
Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.