236 resultados para Panorama degli idrocarburi in Italia,Giacimenti in mare,Attività minerarie nazionali,Sicurezza offshore
Resumo:
L’obiettivo di questo lavoro di tesi è stato quello di definire degli algoritmi in grado di comprendere le prestazioni raggiungibili dalla tecnica NFER alternativa in termini di ranging e accuratezza e, di conseguenza, dedurre se il sistema sia utilizzabile o meno.
Resumo:
In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.
Resumo:
La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.
Resumo:
Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
Il presente lavoro è stato avviato per caratterizzare dal punto di vista geochimico i siti di alimentazione e di riproduzione del Fenicottero ed ottenere così un dataset relativo alle concentrazioni di metalli nei sedimenti di alcune zone umide, utilizzate da questa specie per alimentarsi e riprodursi e scarsamente studiate in passato. Il lavoro di tesi qui presentato si è articolato in due differenti studi: • Un’indagine dettagliata sulla presenza e distribuzione di metalli ed elementi potenzialmente tossici nei sedimenti provenenti da alcune delle principali aree di alimentazione del Fenicottero nell’Alto Adriatico; • Un’indagine preliminare relativa ai metalli contenuti nei sedimenti provenienti da alcuni siti riproduttivi del Fenicottero nel Mediterraneo occidentale. Per quanto riguarda i siti di alimentazione sono state campionate tre zone umide dell’area deltizia del fiume Po: le Valli di Rosolina, Valle Bertuzzi e le Valli di Comacchio. Riguardo i siti riproduttivi sono state campionate cinque aree umide nel Mediterraneo occidentale: le Paludi dell’Odiel nel sud-ovest della Spagna, la Camargue in Francia, lo Stagno di Cagliari in Sardegna, le Valli di Comacchio in Emilia-Romagna e Valle Dogà in Laguna di Venezia. I 57 campioni raccolti sono stati analizzati mediante analisi XRF ed analisi termiche, presso il Dipartimento di Scienze Biologiche, Geologiche e Ambientali, dell’Università di Bologna, e mediante analisi ICP-MS, presso l’AcmeLabs di Vancouver (Canada). Il complesso deltizio del fiume Po ha registrato concentrazioni anomale di Cd, Pb, Sb e Sn mostrando un generale arricchimento nei sedimenti delle aree umide investigate rispetto al valore di riferimento. Analizzando le correlazioni di questo elemento con le frazioni dei sedimenti, si è evidenziata una buona correlazione con la componente organica del sedimento. Ciò potrebbe indicare la presenza di fenomeni di adsorbimento di questo elemento ad opera della matrice organica. L’area di studio non è apparentemente interessata da importanti attività industriali, che potrebbero in parte spiegare le elevate concentrazioni di Cd, Pb, Sb e Sn. Due potenziali sorgenti antropogeniche di contaminazione sono rappresentate da un’estensiva attività agricola nelle zone limitrofe alle valli considerate e da un elevata pressione venatoria esercitata proprio all’interno di queste zone umide. In particolare, quest’ultima attività umana, potrebbe rappresentare una spiegazione più che plausibile per l’elevata presenza di Pb, messa in evidenza dallo studio, dato che fino ad pochissimi anni venivano utilizzate munizioni al Pb con conseguente rilascio in ambiente di ingenti quantitativi di questo metallo. Il Cu e lo Zn si distribuiscono invece in modo relativamente omogeneo nelle tre zone umide investigate, con un debole arricchimento di questi due elementi nei sedimenti delle Valli di Rosolina. Per quanto riguarda l’As, la sua distribuzione nell’area di studio, confrontata con i valori di background, non sembra sollevare particolare preoccupazione, cosi come la presenza di Hg in tutti e tre i siti investigati. Le Valli di Comacchio e Valle Bertuzzi sono inoltre caratterizzate da concentrazioni elevate di Cr e Ni, dati che confermano il naturale arricchimento di questi due elementi nell’area di studio evidenziato da un ampia letteratura e riconducibile ad apporti litologici provenienti dai depositi ofiolitici delle Alpi occidentali trasportati dal fiume Po verso l’Adriatico. Tuttavia, in alcuni campioni la concentrazione di Cr è molto superiore a quella caratteristica delle ofioliti di origine alpina, soprattutto per Valle Bertuzzi. Per spiegare queste anomalie sono necessarie indagini più approfondite sulla presenza e distribuzione di Cr nell’area di Comacchio e Bertuzzi. Riguardo ai 5 siti riproduttivi del Fenicottero, la colonia di Odiel (Spagna) si distingue per essere il sito maggiormente contaminato tra quelli investigati. Si sono infatti riscontrate elevate concentrazioni di As, Cu, Hg, Pb, Sb, Sn e Zn, se confrontate con quelle degli altri siti campionati. Questo risultato non sorprende. Il sito è infatti riconosciuto in letteratura come uno dei sistemi estuarini più inquinati dell’Europa occidentale, in quanto interessato dall’attività mineraria della IPB (Iberian Pyrite Belt), uno dei più importanti siti minerari mondiali, e dall’attività del polo industriale di Huelva. La colonia francese della Camargue si distingue invece per essere il sito meno impattato dall’attività antropica, non mostrando concentrazioni anomale per nessuno degli elementi in traccia analizzati. I sito riproduttivo situato nei pressi di Cagliari, in Sardegna, ha riportato elevate concentrazioni di Cd, Hg e Pb. La contaminazione di questo sito a seguito di ingenti scarichi di rifiuti industriali contenenti Hg e Pb a partire dagli anni ’60 è ben documentata in letteratura. Sebbene negli anni ’90 siano stati realizzati progetti di bonifica del sito, le concentrazioni ottenute nel presente studio sono ancora elevate suggerendo la possibilità che il processo di rimozione di Hg e Pb messo in atto in passato possa aver avuto scarsa efficacia. La colonia riproduttiva di Comacchio ha registrato concentrazioni elevate di Cr, Ni e Pb. Come già detto riguardo ai siti di alimentazione l’abbondanza di Cr e Ni nell’area è da ricondurre a fattori naturali, mentre le elevate concentrazioni di Pb non trovano riscontri in precedenti studi. La presenza di alcuni campioni con concentrazioni anomale di Cr e il generale arricchimento di Pb nel sito suggeriscono la necessità di studi più approfonditi e specifici sulla presenza di questi elementi nell’area di Comacchio. Infine, la colonia situata in Laguna di Venezia si caratterizza per avere concentrazioni relativamente elevate di Cd e Hg riconducibili all’attività del polo industriale di Porto Marghera, come già evidenziato da numerosi studi. Tuttavia, i dati del presente studio non confermano le concentrazioni anomale di Zn messe in evidenza da molti studi effettuati nell’intera laguna veneta. Ciò può trovare una spiegazione nel fatto che il sito indagato in questo studio corrisponde ad un piccola porzione dell’intera laguna, molto raramente investigato negli studi passati. Mediante il presente studio è stato quindi possibile implementare le scarse conoscenze geochimiche relative ai sedimenti di alcune zone umide frequentate dai fenicotteri nell’Alto Adriatico e, al contempo, mettere in luce alcune importanti criticità, in particolar modo riguardo Cd, Cr, Pb, Sb e Sn, la cui presenza e distribuzione nell’area dovrebbero essere ulteriormente investigate da studi futuri.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.
Resumo:
Questa tesi di laurea vuole fornire delle ipotesi per un possibile riutilizzo della casa del Dopolavoro nella città di Imola. Di questo edificio, dismesso ormai da anni, verrà fatta un'analisi storica attraverso i documenti di archivio, riviste dell'epoca e disegni originali, e verranno avanzate ipotesi progettuali sulla base di disegni storici e rilievi attuali. Per meglio render comprensibili gli interventi previsti da questa tesi di laurea, il progetto prevede la suddivisione degli spazi in quattro macrozone principali, ognuna delle quali viene affrontata singolarmente. Di ogni macrozona viene fatto un confronto tra stato di fatto e progetto, identificandone i fattori più rilevanti e spiegando le motivazioni che hanno portato ad eventuali interventi di ripristino od alla nuova destinazione d'uso, così da poterne meglio identificarne la posizione nella struttura dell'edificio nella visione complessiva.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
In questo lavoro di tesi è stato affrontato uno studio mirato alla comprensione ed alla correlazione delle proprietà chimico-fisiche e morfologiche di catalizzatori a base di Pd/Pt supportati su allumina impiegati nella produzione di idrogeno mediante deidrogenazione di miscele complesse di idrocarburi contenenti elevati tenori di zolfo. La produzione di idrogeno mediante deidrogenazione parziale di fuel direttamente su aeromobili necessita di catalizzatori altamente performanti dei quali siano note tutte le caratteristiche in modo da prevedere, in un ampio margine di sicurezza, le possibili cause di malfunzionamento. L’applicabilità di materiali a base di Pd/Pt in questa reazione risiede nella loro capacità di resistere all’avvelenamento da zolfo, rivendicata in letteratura per reazioni di idrogenazione e della quale si sono trovate evidenze sperimentali in alcune prove preliminari svolte nello stesso ambito di ricerca. Le prove catalitiche hanno evidenziato che la deposizione su allumina dei due metalli in ragione di un rapporto molare Pd:Pt=2 con un carico di metalli complessivo del 2% in peso mostra i migliori risultati in termini di resistenza all’avvelenamento da zolfo e da deposizione di composti carboniosi.
Resumo:
Essendo la percentuale di raccolta differenziata un indicatore che preso singolarmente risulta insufficiente a misurare la virtuosità di un Comune nella gestione dei rifiuti, si è elaborato un indicatore multi criteria che amplia l'orizzonte dell'analisi agli altri aspetti inerenti la gestione dei rifiuti. I criteri individuati sono otto: -Percentuale di raccolta differenziata -Produzione pro capite di rifiuti indifferenziati -Produzione pro capite di rifiuti totali -Impatto ambientale del sistema di raccolta e trattamento dei rifiuti -Costi del servizio -Tracciabilità dei rifiuti domestici -Coinvolgimento della popolazione -Comodità per il cittadino. Ad ogni Comune analizzato (il caso di studio è l'Unione Terre di Castelli) viene attribuito un punteggio per ogni criterio, in seguito moltiplicato per il peso attribuito al criterio stesso. I punteggi dati da ciascun criterio sono stati poi normalizzati in una scala da 0 a 1 con l'intervento di figure di esperti di ciascun ambito; i pesi sono stati determinati con la metodologia della Pairwise Comparison (T.Saaty, 1980) dai Sindaci e dagli Amministratori di tutti i Comuni del caso di studio. L'indicatore così costruito è stato poi applicato ai Comuni del caso di studio mostrando risultati, in termini di virtuosità, differenti da quelli prodotti dal solo indicatore di raccolta differenziata, evidenziando così l'importanza di un approccio multi disciplinare al tema dei rifiuti. L'indicatore, mostrando i punteggi ed il margine di miglioramento relativo a ciascun criterio, si è poi rivelato un efficace strumento di supporto alle decisioni per i Comuni nell'indirizzo degli investimenti in materia di gestione dei rifiuti.
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
La Lean Production è un tema di estrema attualità per tutte le aziende che abbiano compreso l’importanza di produrre di più, con le risorse che si hanno a disposizione, eliminando sistematicamente tutte le attività che non creano valore aggiunto. La Produzione Snella è diventato un metodo per incrementare la competitività, riducendo l’incertezza e aumentando il servizio fornito al cliente. Nella realtà attuale vi è ancora una scarsa diffusione dei concetti Lean. Le cause di questo problema sono imputabili soprattutto alla cultura del management aziendale, alla mancanza di efficaci strumenti tecnologici a supporto, e in alcuni casi, la scarsa disponibilità delle imprese ad abbracciare la filosofica “snella”. La presente tesi, dopo una panoramica introduttiva su l’origine e l’evoluzione del Pensiero Snello e l’analisi di tutti i tools disponibili per combattere lo spreco; si propone di analizzare l’applicazione degli stessi in Gambro Dasco, multinazionale biomedicale leader nella vendita delle sue apparecchiature per dialisi.
Resumo:
In questa tesi quindi sono stati analizzati gli aspetti relativi alla legislazione sulla sicurezza, contemplando la nascita e l’evoluzione dell’assetto normativo italiano ed il recepimento delle disposizioni comunitarie. In particolare è stata approfondita la normativa riguardante i cantieri temporanei e/o mobili per l’attività edilizia. L’applicazione di quanto previsto in termini di legge è stato esaminato per un caso concreto di ristrutturazione edilizia. Sono stati esaminati gli aspetti critici del Piano Operativo di Sicurezza e proposte modifiche correttive per meglio adattarsi alla specificità del cantiere in oggetto, con lo scopo ultimo di diminuire l’esposizione al rischio ed aumentare la salvaguardia della sicurezza e salute dei lavoratori. Il caso di studio qui presentato evidenzia le difficoltà e le diffidenze che ancora permangono tra la norma e la sua applicazione in cantiere. Il vero anello debole della catena è spesso la mancanza della percezione della sicurezza come azione di tutela nei confronti dei lavoratori. Infatti, in mancanza di una adeguata sensibilizzazione, piuttosto che di una formazione “nozionistica”, il lavoratore continua a percepire la sicurezza come un’imposizione, come un qualcosa che ostacola il proprio lavoro. Non è certamente semplice cambiare un’impostazione che magari ha contrassegnato l’intero percorso lavorativo e la rinomata scomodità di alcuni DPI spesso porta ad un utilizzo saltuario degli stessi e solamente laddove viene realmente percepito un rischio per la propria incolumità. Ed è proprio per questo motivo che, nonostante i lavoratori siano perfettamente a conoscenza delle norme e delle prassi di buona tecnica da rispettare, continuino a lavorare con le stesse modalità che hanno appreso all’inizio dell’attività lavorativa. Il sondaggio somministrato ai lavoratori conferma questa realtà, suggerendo che la via della formazione, con particolare attenzione agli aspetti di sensibilizzazione, potrebbe diminuire concretamente il divario esistente tra la teoria (la norma) e la pratica. In ogni caso anche da questo studio è emerso in maniera incontrovertibile che la sicurezza sul lavoro, nonostante delle resistenze che solo il tempo, la costanza e le buone pratiche riusciranno a superare, resta comunque un processo storicamente ineluttabile.