571 resultados para propoli,attività antimicrobica,acidi grassi,attività antiossidante,oli essenziali
Resumo:
Lo scopo di questo elaborato è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole lupino. I dati relativi a campioni raccolti nel periodo 2008-2015 nella zona tra Cervia e Fano sono stati messi in relazione con alcuni parametri quali salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Marecchia. Sono stati presi in considerazione oltre 350 campioni, in cui i conteggi di E. coli mediante tecnica MPN sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); cariche intermedie (50-230 MPN/100g); cariche alte, ossia non conformi al regolamento europeo (>230 MPN/100g). L’eventuale significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test chi-quadrato e il test di Kruskal-Wallis. Per quanto riguarda il test chi-quadrato, eseguito in relazione ad anno, mese e stagione, si è visto che i campioni più inquinati derivano dagli anni 2010 e 2012, dai mesi novembre/dicembre e in generale dalla stagione autunnale. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che le frequenze dei campioni nelle tre categorie non sono significative in relazione alla salinità. Al contrario, per i parametri temperatura e livello del fiume Marecchia sono stati ottenuti risultati significativi: infatti, le cariche microbiche più alte corrispondono a temperature più basse delle acque e a periodi di maggiore portata del fiume. Questo episodio riflette sicuramente un aspetto biologico legato al ciclo vitale di Chamelea gallina, che vive la sua fase riproduttiva nella stagione più calda, diminuendo quindi la sua attività filtrante, fonte di contaminazione. Al contempo questo andamento è anche spiegabile dall’apporto di contaminanti dalle precipitazioni e dai fiumi che trascinano sostanze organiche inquinanti di natura antropica, che costituiscono fonte di nutrimento per le specie microbiche come E. coli ed altri enterobatteri.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
La messa a punto di processi in grado di utilizzare le biomasse lignocellulosiche per la produzione di molecole piattaforma, utilizzabili per la sintesi di intermedi per la chimica fine, l’industria polimerica ed i combustibili, è attualmente un argomento di ricerca di grande interesse. Tra le molecole più studiate vi è la furfurale (FU), che si può ottenere mediante disidratazione dei monosaccaridi pentosi contenuti nei materiali lignocellulosici. Il prodotto di riduzione della furfurale, l’alcol furfurilico (FAL), è commercialmente interessante perché trova applicazione nell’industria polimerica e viene utilizzato come intermedio nella produzione di lisina, vitamina C, lubrificanti e agenti dispersanti. In letteratura sono riportati numerosi processi che permettono di ottenere questo prodotto, utilizzando la riduzione catalitica con H2 in pressione, che però presentano problemi di selettività, costo, sostenibilità e tossicità del catalizzatore utilizzato. La possibilità di effettuare la riduzione selettiva della furfurale senza fare ricorso all’idrogeno molecolare, utilizzando un processo di H-transfer e catalizzatori eterogenei a base di ossidi misti, risulta quindi di estremo interesse perché permette di eliminare i suddetti problemi. Lo scopo di questa tesi è stato quello di ottimizzare il processo, confrontando catalizzatori basici, quali MgO, CaO e SrO ottenuti tramite calcinazione a diverse temperature dei rispettivi precursori. In particolare, è stata valutata l’influenza che la temperatura di calcinazione, il tempo e la temperatura di reazione hanno sulla reattività e la stabilità dei sistemi catalitici sintetizzati. La caratterizzazione dei catalizzatori tramite diffrazione ai raggi X (XRD), analisi termiche (TGA, DTA) e misure di area superficiale con tecnica BET ha permesso di correlare le proprietà chimico-fisiche dei materiali con la loro attività catalitica.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Lo scopo di questa attività è approfondire le conoscenze sul processo di riempimento a caldo noto come nitro-hot-fill (NHF) utilizzato per contenitori in PET. Il nostro obiettivo è quello di simulare su scala di laboratorio il processo industriale al fine di ottimizzarne i parametri e aumentare la stabilità dei contenitori anche attraverso l’utilizzo di materie prime con caratteristiche migliorate utilizzando formulazioni adatte ai trattamenti a caldo. Il processo consiste nel riempimento della bottiglia ad una temperatura tra gli 80°/85°C, successivo al quale vi è l’iniezione di azoto al fine di evitare l’implosione durante il raffreddamento fino a temperatura ambiente. Questo settore del mercato è in forte crescita, molte bevande infatti hanno la necessità di un contenitore asettico; il processo di NHF ha il vantaggio di utilizzare il calore del prodotto stesso al fine di rendere la bottiglia sterile. Da qui nascono le criticità legate al processo, occorre prendere diversi accorgimenti al fine di rendere processabile in questo modo una bottiglia, infatti l’aumento di pressione interna dovuto all’iniezione di azoto si accompagna una temperatura vicina alla temperatura di transizione vetrosa. La nostra attività di ricerca ha focalizzato la propria attenzione sul design della bottiglia, sul processo di stiro-soffiaggio, sull’influenza dell’umidità assorbita nel PET, sul materiale utilizzato e su altri parametri di processo al fine di produrre contenitori in grado di resistere al riempimento NHF.
Resumo:
Il cuore è uno dei principali organi vitali dell’organismo umano e la sua fisiologica attività è indispensabile per sostenere uno stile di vita conforme alle esigenze del singolo individuo. Le aritmie cardiache, alterazioni del ritmo, possono compromettere o limitare la vita di un paziente che ne è affetto. Specifiche aritmie cardiache vengono trattate con l’impianto di dispositivi cardiaci impiantabili, i defibrillatori, che generano una stimolazione elettrica nel tessuto cardiaco allo scopo di ripristinare un ritmo cardiaco fisiologico. Il presente elaborato descrive come tali dispositivi siano in grado di correggere le aritmie cardiache, garantendo la sicurezza del paziente e permettendogli di svolgere le normali attività quotidiane . Il primo capitolo andrà ad analizzare il cuore dal punto di vista anatomico e fisiologico per capirne il funzionamento non affetto da patologie. Il secondo capitolo concentrerà l’analisi sui defibrillatori impiantabili per stimolazione cardiaca (ICD), facendo luce sulla storia, sulle funzioni primarie,sui componenti interni,sulle patologie legate all’utilizzo,sulle tipologie presenti in commercio e sul metodo d’impianto. Il terzo capitolo è incentrato sul monitoraggio remoto degli ICD (home-monitoring), attraverso il quale il paziente può trasmettere per via transtelefonica al centro cardiologico di riferimento i dati tecnici e clinici desumibili dall’interrogazione del dispositivo impiantato, senza necessità di ricorrere al controllo ambulatoriale tradizionale. L’home-monitoring nei pazienti portatori di dispositivo impiantabile si è dimostrato efficace per l’individuazione di malfunzionamenti e di instabilità cliniche in misura sovrapponibile rispetto al controllo ambulatoriale tradizionale, offrendo però significativi vantaggi in termini di qualità della vita e di gestione delle risorse sanitarie. Infine saranno presentate le conclusioni di tale elaborato.
Resumo:
I sistemi BCI EEG-based sono un mezzo di comunicazione diretto tra il cervello e un dispositivo esterno il quale riceve comandi direttamente da segnali derivanti dall'attività elettrica cerebrale. Le features più utilizzate per controllare questi dispositivi sono i ritmi sensorimotori, ossia i ritmi mu e beta (8-30 Hz). Questi ritmi hanno la particolare proprietà di essere modulati durante l'immaginazione di un movimento generando così delle desincronizzazioni e delle sincronizzazioni evento correlate, ERD e ERS rispettavamente. Tuttavia i destinatari di tali sistemi BCI sono pazienti con delle compromissioni corticali e non sono sempre in grado di generare dei pattern ERD/ERS stabili. Per questo motivo, negli ultimi anni, è stato proposto l'uso di tecniche di stimolazione cerebrale non invasiva, come la tDCS, da abbinare al training BCI. In questo lavoro ci si è focalizzati sugli effetti della tDCS sugli ERD ed ERS neuronali indotti da immaginazione motoria attraverso un'analisi dei contributi presenti in letteratura. In particolare, sono stati analizzati due aspetti, ossia: i) lo studio delle modificazioni di ERD ed ERS durante (online) o in seguito (offline) a tDCS e ii) eventuali cambiamenti in termini di performance/controllo del sistema BCI da parte del soggetto sottoposto alla seduta di training e tDCS. Le ricerche effettuate tramite studi offline o online o con entrambe le modalità, hanno portato a risultati contrastanti e nuovi studi sarebbero necessari per chiarire meglio i meccanismi cerebrali che sottendono alla modulazione di ERD ed ERS indotta dalla tDCS. Si è infine provato ad ipotizzare un protocollo sperimentale per chiarire alcuni di questi aspetti.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
La tesi presenta un'attività di ottimizzazione per forme di dirigibili non convenzionali al fine di esaltarne alcune prestazioni. Il loop di ottimizzazione implementato comporta il disegno automatico in ambiente CAD del dirigibile, il salvataggio in formato STL, la elaborazione del modello al fine di ridurre il numero di triangoli della mesh, la valutazione delle masse aggiunte della configurazione, la stima approssimata dell'aerodinamica del dirigibile, ed infine il calcolo della prestazione di interesse. Questa tesi presenta inoltre la descrizione di un codice di ottimizzazione euristica (Particle Swarm Optimization) che viene messo in loop con il precedente ciclo di calcolo, e un caso di studio per dimostrare la funzionalità della metodologia.
Resumo:
La tesi nasce dalla volontà di agire sull’area della Darsena di Ravenna, strategica in quanto via d’acqua navigabile che congiunge il mare con il centro città ma dal potenziale ancora poco sfruttato. Il progetto è studiato per essere inserito come catalizzatore urbano, creando spazi di interazione attraverso elementi modulari galleggianti e riconfigurabili per adattarsi a programmi d’uso flessibili; tali elementi si aggregano formando un sistema che ristruttura lo spazio dell’attuale banchina, cambiandone la percezione da barriera a waterfront urbano. La necessità di ottenere una struttura con capacità di crescita e flessibilità programmatica sfocia in un approccio modulare seguendo il principio massima variazione/minimo numero di elementi i cui principi aggregativi si basano sulla tassellazione “Cairo”. Vengono studiate le possibilità di incorporare variazione ed eterogeneità all’interno del sistema senza comprometterne la modularità fino ad integrare percorsi multilivello. La definizione delle morfologie delle parti che compongono i moduli si basano sullo studio dei principi di galleggiamento, stabilità e yacht design: a partire dalla forma dello scafo adatta ai principi di tiling definiti in precedenza, tutte le parti che compongono le varie tipologie di modulo sono progettate cercando continuità e integrazione tettonica (geometrica, strutturale, funzionale e percettiva). Vengono proposte soluzioni integrate sia per le problematiche tipiche delle strutture galleggianti sia per l’inserimento di attività all’interno della soluzione architettonica. Vengono prototipati di una serie di moduli, scelti in modo da dimostrare i principi di ricombinazione, continuità, modularità e tiling.
Resumo:
Negli ultimi decenni l’attenzione alle tematiche della sostenibilità ambientale e dell’inquinamento globale da parte dell’opinione pubblica e delle imprese è in costante aumento. Una tra le principali fonti di inquinamento è costituita dai rifiuti, e di conseguenza, la loro gestione e il loro smaltimento sono diventate una priorità, non solo per le istituzioni, ma anche per le imprese e per i cittadini. Inoltre la crescita della domanda delle risorse presenti in natura è in costante aumento e l’approvvigionamento di esse si è rivelato essere invece soggetto a significativi limiti. In questo attuale contesto quindi, il modello economico lineare fino ad oggi utilizzato, “take-make-dispose”, non risulta più idoneo. Si è sviluppato così il concetto di “Economia Circolare”. L’obiettivo di questa economia è quello di eliminare il concetto di scarto, il rifiuto deve essere considerato una vera e propria risorsa. In questo sistema tutte le attività, a partire dall’ estrazione fino ad arrivare alla produzione, sono organizzate in modo che i rifiuti di uno diventino risorse per un altro. L’obiettivo della tesi è quello di applicare il concetto di Economia Circolare al mercato dei dispositivi tessili per sala operatoria (DTSO), utilizzando la valutazione del ciclo di vita di un prodotto (analisi LCA) in modo da individuare le fasi più critiche e poter operare dei miglioramenti. Dopo essere stati sottoposti a 70 cicli di lavaggio e sterilizzazione i dispositivi TTR (Tessuti Tecnici Riutilizzabili) non sono più idonei ad essere utilizzati in ambito ospedaliero e vengono smaltiti in discarica , così come vengono smaltiti altri miliardi di rifiuti ogni giorno.Questi tessuti, seppur non conformi agli standard qualitativi richiesti dalle norme ospedaliere, possono essere riciclati o riutilizzati in prodotti di altro tipo. L’obiettivo di questo lavoro è quello di reimmettere questi dispositivi in un ciclo di vita di un nuovo prodotto, in ottica appunto di economia circolare.
Resumo:
Il Selective Laser Melting è un processo di additive manufacturing che consiste nella realizzazione di componenti metallici tridimensionali, sovrapponendo strati di polvere, che viene via via fusa mediante una sorgente controllata di energia (laser). È una tecnica produttiva che viene utilizzata da più di 20 anni ma solo ora sta assumendo un ruolo rilevante nell’industria. È un processo versatile ma complesso che ad oggi permette di processare solo un numero limitato di leghe. Il presente lavoro di tesi riguarda in particolare lo studio, dal punto di vista microstrutturale, di componenti in acciaio inossidabile austenitico AISI-316L processato mediante Selective Laser Melting, attività svolta in collaborazione con il Gruppo di Tecnologia – Laser del Dipartimento di Ingegneria Industriale. Alla base dell’attività sperimentale è stata svolta anche un’ampia ricerca bibliografica per chiarire lo stato dell’arte sul processo e sulla lega in questione, la microstruttura, i difetti, le proprietà meccaniche e l’effetto dei parametri di processo sul componente finito. Le attività sperimentali hanno previsto una prima fase di caratterizzazione delle polveri di 316L, successivamente la caratterizzazione dei campioni prodotti tramite selective laser melting, in termini di microstruttura e difetti correlati al processo. Le analisi hanno rivelato la presenza di una microstruttura “gerarchica” costituita da melt pool, grani e celle submicrometriche. I difetti rinvenuti sono pori, delaminazione degli strati, particelle di polvere non fuse. Infine è stata eseguita la caratterizzazione frattografica dei campioni sottoposti a prove di trazione e di fatica a flessione rotante (attività condotte dal gruppo Laser) per identificare la morfologia di frattura e i siti di innesco della cricca di fatica.
Resumo:
Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.