1000 resultados para Grafi,Basi di dati a grafo,interrogazioni,GraphVista,Graphite,SPARQL
Resumo:
Questa tesi tratta della realizzazione e valutazione di un simulatore Web-Based i cui nodi sono connessi tramite Web Real Time Communication (WebRTC) e si testa la sua efficienza mediante la simulazione di un semplice modello di mobilità. Si espongono i principali concetti di simulazione e di WebRTC, fornendo le basi per una maggior comprensione del testo e delle scelte progettuali ed implementative. Si conclude con serie di test comparativi dell’applicativo mettendo in luce pregi e difetti di questo approccio alternativo alla simulazione.
Resumo:
Questa tesi presenta i risultati di una ricerca qualitativa condotta presso la scuola primaria Diego Fabbri di Forlì. Si è voluto indagare sul fenomeno della mediazione linguistica ad opera di bambini in relazione con la scelta del sistema scolastico italiano di impartire un’educazione di tipo interculturale. Ci si è quindi concentrati sul percorso di accoglienza riservato agli alunni stranieri neo-arrivati. In particolare si sono analizzate le strategie messe in atto dall’istituto e dagli insegnanti per favorire l’integrazione all’interno di classi multiculturali, nonché il ruolo riservato ai compagni, sia italiani che stranieri. La prima parte del testo costituisce un quadro teorico indirizzato a meglio comprendere gli obiettivi e i risultati dello studio. Il primo capitolo verte sulle tematiche dell’immigrazione e dell’integrazione. Vengono qui esposti i principali modelli di acculturazione sviluppati dai vari paesi del mondo e in diverse epoche storiche, con particolare riferimento al contesto europeo e alle scelte operate dall’Italia nei confronti degli stranieri presenti sul suo territorio. Il secondo capitolo presenta poi il tema dell’educazione interculturale. A partire da una riflessione concettuale e terminologica sulla dicotomia fra multicultura e intercultura, si analizza la linea di pensiero seguita dalla scuola italiana nella gestione della crescente diversità etnica e culturale all’interno delle classi. Il terzo capitolo affronta il fenomeno del child language brokering o mediazione linguistica ad opera di bambini. Ne sono valutati aspetti positivi e negativi, soffermandosi specialmente sulle particolarità del contesto scolastico e dell’interazione fra pari. Gli ultimi due capitoli riguardano invece la parte operativa del lavoro di ricerca. Nel quarto capitolo è presentata la metodologia applicata, con un approfondimento sulla combinazione delle tecniche dell’osservazione e dell’intervista e la conduzione di una ricerca con i bambini. Infine, nel quinto capitolo, sono analizzati i dati raccolti sul campo.
Resumo:
La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.
Resumo:
I sarcomi dei tessuti molli sono un gruppo eterogeneo di tumori maligni di origine mesenchimale che si sviluppa nel tessuto connettivo. Il controllo locale mediante escissione chirurgica con margini ampi associato alla radioterapia e chemioterapia è il trattamento di scelta. Negli ultimi anni le nuove scoperte in campo biologico e clinico hanno sottolineato che i diversi istotipi posso essere considerati come entità distinte con differente sensibilità alla chemioterapia pertanto questa deve essere somministrata come trattamento specifico basato sull’istologia. Tra Ottobre 2011 e Settembre 2014 sono stati inclusi nel protocollo di studio 49 pazienti con sarcomi dei tessuti molli di età media alla diagnosi 48 anni (range: 20 - 68 anni). I tumori primitivi più frequenti sono: liposarcoma mixoide, sarcoma pleomorfo indifferenziato, sarcoma sinoviale. Le sedi di insorgenza del tumore erano più frequentemente la coscia, il braccio e la gamba. 35 pazienti sono stati arruolati nel Braccio A e trattati con chemioterapia standard con epirubicina+ifosfamide, 14 sono stati arruolati nel Braccio B e trattati con chemioterapia basata sull’istotipo. I dati emersi da questo studio suggeriscono che le recidive locali sembrano essere correlate favorevolmente alla radioterapia ed ai margini chirurgici adeguati mentre la chemioterapia non sembra avere un ruolo sul controllo locale della malattia. Anche se l'uso di terapie mirate, che hanno profili di tossicità più favorevoli e sono quindi meglio tollerate rispetto ai farmaci citotossici è promettente, tali farmaci hanno prodotto finora risultati limitati. Apparentemente l’insieme delle terapie mirate non sembra funzionare meglio delle terapie standard, tuttavia esse devono essere esaminate per singolo istotipo e confrontate con il braccio di controllo. Sono necessari studi randomizzati controllati su ampie casistiche per valutare l’efficacia delle terapie mirate sui differenti istotipi di sarcomi dei tessuti molli. Inoltre, nuovi farmaci, nuove combinazioni e nuovi schemi posologici dovranno essere esaminati per ottimizzare la terapia.
Resumo:
Il presente lavoro di tesi tende a un duplice scopo: il primo è quello di fornire una accurata analisi tecnica, applicativa e culturale riguardante il vasto mondo dei big data e il secondo quello di trovare connessioni con l’analisi strategica verificando se e in quale modo i big data possano risultare una risorsa distintiva in campo aziendale. Nello specifico il primo capitolo presenta i big data nelle sue caratteristiche più importanti cercando di approfondire gli aspetti tecnici del fenomeno, le fonti di produzione dei dati, le metodologie principali di analisi e l’impatto sulla società. Il secondo capitolo descrive svariate applicazioni dei big data in campo aziendale concentrandosi sul rapporto tra questi e l’analisi strategica, non trascurando temi come il vantaggio competitivo e la business intelligence. Infine il terzo capitolo analizza la condizione attuale, il punto di vista italiano ed eventuali sviluppi futuri del fenomeno.
Resumo:
Nelle smart cities moderne, la mobilità di veicoli elettrici (EV) è considerata un fattore determinante nella riduzione del consumo di combustibili fossili e conseguenti emissioni inquinanti. Tuttavia, nonostante gli interessi e investimenti a livello globale, l'accettazione da parte degli utenti è ancora bassa, principalmente a causa della mancanza di infrastrutture e servizi a supporto dei guidatori di EV. Queste mancanze sono la causa principale della cosiddetta range anxiety (timore che il veicolo non abbia autonomia sufficiente per raggiungere la destinazione) e hanno portato al preconcetto che gli EV siano adatti alla sola percorrenza di brevi tragitti. Per contrastare questi problemi, in questo documento è proposta un'applicazione di route planning che supporti mobilità di EV anche su percorsi medio-lunghi, mediante utilizzo di un modello di predizione del consumo energetico e considerazione dell'eventuale necessità di ricarica. Saranno descritte tecniche per determinare il tragitto che un EV sia in grado di percorrere per arrivare a destinazione, in considerazione di restrizioni energetiche, fattore altimetrico del percorso ed eventuali operazioni di ricarica necessarie. Il modello di consumo e l'algoritmo che determina il miglior percorso (dal punto di vista energetico) sono implementati da un web service che interagisce con i servizi di Google Maps (per ottenere indicazioni stradali, dati altimetrici e informazioni in tempo reale sul traffico) e con servizi che offrono informazioni sulle stazioni di ricarica e relative posizioni. Dopo aver descritto il modello di consumo e l'algoritmo per la ricerca del percorso, sarà presentata l'architettura del servizio implementato. Sarà quindi fornita una valutazione del servizio, analizzandone performance e scalabilità, nonché l'efficacia nel supporto di percorsi di EV all'interno di scenari su larga scala (nello specifico la regione Emilia Romagna), attraverso tecniche di simulazione.
Resumo:
Internet of Energy for Electric Mobility è un progetto di ricerca europeo il cui scopo consiste nello sviluppo di infrastrutture di comunicazione, siano esse sia hardware che software, volte alla facilitazione, supporto e miglioramento di tutte quelle operazioni legate al processo di ricarica di auto elettriche. A tale progetto vi ha aderito anche l’Università di Bologna ed è stato oggetto di studio di Federico Montori e Simone Rondelli. Il primo ha dato il là allo sviluppo del progetto realizzandovi, in una fase embrionale, una piattaforma legata alla gestione di un servizio cittadino (bolognese) per la gestione di ricariche elettriche, un’applicazione mobile in grado di interagire con tale servizio ed un simulatore per la piattaforma. In un lavoro durato oltre un anno, Simone Rondelli ha ripreso il progetto di Federico Montori riscrivendone le componenti in maniera tale da migliorarne le funzionalità ed aggiungerne anche di nuove; in particolare ha realizzato in maniera efficiente un’applicazione mobile la quale si occupa di gestire la prenotazione di colonnine elettriche di ricarica e di monitorare lo stato attuale di un’auto peso, livello batteria, ecc... ). Nel marzo del 2014 è cominciato il mio contributo nel contesto di Internet of Energy di cui ne ho ereditato tutta l’architettura derivante dai due sviluppi precedenti. Il mio compito è stato quello di realizzare (cioè emulare) una colonnina di ricarica auto elettrica, tramite la piattaforma elettronica Arduino, la quale al suo primo avvio informa il database semantico del sistema (SIB) della sua presenza in maniera tale che il simulatore sia in grado di poter far ricaricare un’auto anche a questa nuova colonnina. Di conseguenza ho fatto in modo di instaurare (tramite socket) una comunicazione tra il simulatore e la colonnina così che il simulatore informi la colonnina che è stata raggiunta da un’auto e, viceversa, la colonnina informi il simulatore sullo stato di ricarica dell’auto in modo che quest’ultima possa ripartire al termine della ricarica. Ho anche realizzato un’applicazione mobile in grado di comunicare con la colonnina, il cui scopo è quello di ottenere un codice di ricarica che poi l’utente deve digitare per autenticarsi presso di essa. Realizzando tale tipo di contributo si è data dunque la possibilità di integrare una componente ”reale” con componenti simulate quali le auto del simulatore di Internet of Energy e si sono poste le basi per estensioni future, le quali permettano di integrare anche più componenti che si registrano nel sistema e danno dunque la possibilità di essere utilizzate dalle auto elettriche.
Resumo:
Nel corso degli ultimi anni le problematiche legate al ruolo vettore delle zanzare stanno emergendo sia per quanto riguarda l’uomo che gli animali allevati e selvatici. Diversi arbovirus come West Nile, Chikungunya, Usutu e Dengue, possono facilmente spostarsi a livello planetario ed essere introdotti anche nei nostri territori dove possono dare avvio a episodi epidemici. Le tecniche di monitoraggio e sorveglianza dei Culicidi possono essere convenientemente utilizzate per il rilevamento precoce dell’attività virale sul territorio e per la stima del rischio di epidemie al fine dell’adozione delle opportune azioni di Sanità Pubblica. Io scopo della ricerca del dottorato è inserito nel contesto dei temi di sviluppo del Piano regionale sorveglianza delle malattie trasmesse da vettori in Emilia Romagna. La ricerca condotta è inquadrata prevalentemente sotto l’aspetto entomologico applicativo di utilizzo di dispositivi (trappole) che possano catturare efficacemente possibili insetti vettori. In particolare questa ricerca è stata mirata allo studio comparativo in campo di diversi tipi di trappole per la cattura di adulti di zanzara, cercando di interpretare i dati per capire un potenziale valore di efficacia/efficienza nel rilevamento della circolazione virale e come supporto alla pianificazione della rete di sorveglianza dal punto di vista operativo mediante dispositivi adeguati alle finalità d’indagine. Si è cercato di trovare un dispositivo idoneo, approfondendone gli aspetti operativi/funzionali, ai fini di cattura del vettore principale del West Nile Virus, cioè la zanzara comune, da affiancare all’unica tipologia di trappola usata in precedenza. Le prove saranno svolte sia in campo che presso il laboratorio di Entomologia Medica Veterinaria del Centro Agricoltura Ambiente “G. Nicoli” di Crevalcore, in collaborazione con il Dipartimento di Scienze e Tecnologie Agroambientali della Facoltà di Agraria dell’Università di Bologna.
Resumo:
La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.
Resumo:
Obiettivo del lavoro è stato lo sviluppo e la validazione di nuovi bioassay e biomarker quali strumenti da utilizzare in un approccio ecotossicologico integrato per il biomonitoraggio di ambienti marino-costieri interessati da impatto antropico negli organismi che vivono in tali ambienti. L’ambiente reale impiegato per l’applicazione in campo è la Rada di Augusta (Siracusa, Italia). Una batteria di bioassay in vivo e in vitro è stata indagata quale strumento di screening per la misura della tossicità dei sedimenti. La batteria selezionata ha dimostrato di possedere i requisiti necessari ad un applicazione di routine nel monitoraggio di ambienti marino costieri. L’approccio multimarker basato sull’impiego dell’organismo bioindicatore Mytilus galloprovincialis in esperimenti di traslocazione ha consentito di valutare il potenziale applicativo di nuovi biomarker citologici e molecolari di stress chimico parallelamente a biomarker standardizzati di danno genotossico ed esposizione a metalli pesanti. I mitili sono stati traslocati per 45 giorni nei siti di Brucoli (SR) e Rada di Augusta, rispettivamente sito di controllo e sito impattato. I risultati ottenuti supportano l’applicabilità delle alterazioni morfometriche dei granulociti quale biomarker di effetto, direttamente correlato allo stato di salute degli organismi che vivono in un dato ambiente. Il significativo incremento dell’area dei lisosomi osservato contestualmente potrebbe riflettere un incremento dei processi degradativi e dei processi autofagici. I dati sulla sensibilità in campo suggeriscono una valida applicazione della misura dell’attività di anidrasi carbonica in ghiandola digestiva come biomarker di stress in ambiente marino costiero. L’utilizzo delle due metodologie d’indagine (bioassay e biomarker) in un approccio ecotossicologico integrato al biomonitoraggio di ambienti marino-costieri offre uno strumento sensibile e specifico per la valutazione dell’esposizione ad inquinanti e del danno potenziale esercitato dagli inquinanti sugli organismi che vivono in un dato ambiente, permettendo interventi a breve termine e la messa a punto di adeguati programmi di gestione sostenibile dell’ambiente.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.
Resumo:
L'obiettivo di questo lavoro è quello di fornire una metodologia operativa, esposta sotto forma di modello organizzativo strutturato per casi, che le aziende possono utilizzare per definire le azioni immediate di risposta da intraprendere al verificarsi di un evento informatico di sicurezza, che potrebbe trasformarsi, come vedremo, in incidente informatico di sicurezza. La strutturazione di questo modello si basa principalmente su due standard prodotti dall'ISO/IEC ed appartenenti alla famiglia 27000, che delinea il sistema di gestione della sicurezza delle informazioni in azienda e che ha come scopo principale la protezione di riservatezza, integrità e disponibilità dei dati in azienda. Il contenuto di tali standard non può però prescindere dagli ordinamenti giuridici di ogni paese in cui vengono applicati, motivo per cui all'interno del lavoro sono stati integrati i riferimenti alle normative di rilevante interesse, soprattutto quelle collegate alla privacy e ai casi presi in esame all'interno del modello sviluppato. In prima battuta vengono quindi introdotti gli standard di riferimento, illustrati all'interno del Capitolo 1, proseguendo poi con la descrizione di concetti fondamentali per la strutturazione del modello organizzativo, come sicurezza informatica, incident response e informatica forense, che vengono esposti nel Capitolo 2. Nel Capitolo 3 vengono invece descritti gli aspetti normativi in merito alla privacy dei dati aziendali, dettagliando anche le motivazioni che portano alla creazione del modello organizzativo obiettivo di questo lavoro. Nel Capitolo 4 viene illustrato il modello organizzativo proposto, che presenta una struttra per casi e contiene una analisi dei casi più rilevanti dal punto di vista del business aziendale. Infine, nel Capitolo 5 vengono descritte le caratteristiche e le funzionalità di un software sviluppato sotto forma di Windows Service, nato in seguito a delle considerazioni basate sulle analisi di rischio svolte nel Capitolo 4.
Resumo:
La presente tesi tratta delle attività riproduttive e delle prime fasi di crescita dello squalo Chiloscyllium punctatum. Da Dicembre 2013 a Giugno 2014, all’Acquario di Cattolica, sono state effettuate osservazioni su una coppia di adulti riproduttori e sui relativi neonati mantenuti in ambiente controllato. Il Chiloscyllium punctatum è una specie ovipara che rilascia uova di forma rettangolare, ha un ciclo riproduttivo relativamente rapido ed è molto sfruttata come specie ornamentale dagli acquari di tutto il mondo. Per ottenere una corretta gestione in ambiente controllato, la riproduzione ed estrapolare il maggior numero d’informazioni certe su gli stadi di vita, sulla dieta di divezzamento dei neonati dal sacco vitellino, sull’illuminazione più consona da adottare, sulle dimensioni medie di uova, nascituri e adulti, sulla crescita dei nascituri, sui tempi di sviluppo embrionale, sulla frequenza di deposizione delle uova e sui tempi di schiusa è stato necessario sviluppare un corretta procedura di gestione ordinaria. In 7 mesi, gli adulti di C. punctatum, in condizioni ambientali ottimali e costanti, hanno dato vita a 33 neonati. Questi sono stati sottoposti a misurazioni di lunghezza (LT, cm) e peso corporeo (PC, g) per valutare l’influenza dell’illuminamento e della dieta sulla crescita. Inoltre, sono stati confrontati dati sperimentali (e.g. tempistiche di sviluppo embrionale) con dati bibliografici (Haraush et al., 2007) che hanno evidenziato alcune similitudini e differenze.
Resumo:
MATERIALI E METODI: Tra il 2012 e il 2013, abbiamo analizzato in uno studio prospettico i dati di 48 pazienti sottoposti a ThuLEP con approccio autodidatta. I pazienti sono stati rivalutati a 3, 6, 12 e 24 mesi con la valutazione del PSA, il residuo post-minzionale (RPM), l'uroflussometria (Qmax), l'ecografia transrettale e questionari validati (IPSS: international prostate symptom score e QoL: quality of life) RISULTATI: Il volume medio della prostata è di 63 ± 5,3 ml. Il tempo operatorio medio è stato di 127,58 ± 28.50 minuti. Il peso medio del tessuto asportato è stato di 30,40 ± 13,90 gr. A 6 mesi dopo l'intervento l'RPM medio è diminuito da 165,13 ± 80,15 ml a 7,78 ± 29.19 ml, mentre il Qmax medio è aumentato da 5.75 ± 1.67ml / s a 18.1 ± 5.27 ml / s. I valori medi dei IPSS e QoL hanno dimostrato un progressivo miglioramento: da 19.15 (IQR: 2-31) e 4 (IQR: 1-6) nel preoperatorio a 6.04 (IQR: 1-20) e 1.13 (IQR: 1-4), rispettivamente. Durante la curva di apprendimento si è assistito ad un progressivo aumento del peso del tessuto enucleato e ad una progressiva riduzione del tempo di ospedalizzazione e di cateterismo. Tra le principali complicanze ricordiamo un tasso di incontinenza transitoria del 12,5% a 3 mesi e del 2.1% a 12 mesi. CONCLUSIONI: ThuLEP rappresenta una tecnica chirurgica efficace, sicura e riproducibile indipendentemente dalle dimensioni della prostata. I nostri dati suggeriscono che la ThuLEP offre un miglioramento significativo dei parametri funzionali comparabili con le tecniche tradizionali, nonostante una lunga curva di apprendimento.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.