991 resultados para misure, strumentali, variabilità, stabilità, cammino, indice, rischio, caduta, anziani
Resumo:
Il rivelatore di luminosità LUCID di ATLAS, in LHC, deve cambiare fotomoltiplicatori durante il Long Shutdown I. Due modelli candidati per la sostituzione sono stati irradiati con raggi gamma per studiarne la resistenza alla radiazione. In questa tesi si riportano i risultati delle misure di dark current, guadagno relativo e risposta spettrale prima e dopo l'irraggiamento. L'unica differenza di rilievo dopo l'irraggiamento risulta essere l'aumento di dark current. All'interno dell'incertezza di misura, non ci sono variazioni negli altri parametri e non ci sono differenze sostanziali fra i due modelli.
Resumo:
Nelle celle solari HIT (Heterojunction Intrinsic Thin layer) attualmente in circolazione il materiale maggiormente utilizzato è sicuramente il silicio, per la sua buona caratteristica di assorbimento e disponibilità in natura. Tuttavia, la struttura amorfa del silicio impiegato come emettitore, limita fortemente la conducibilità e aumenta gli effetti di degradazione legati all'esposizione alla luce. In quest'ottica, nel presente lavoro di tesi, vengono analizzati sottili layers di Silicon Oxynitride ossigenato, depositati in forma nanocristallina presso l'Università di Costanza su substrati in vetro, tramite PECVD (Plasma-Enhanced Chemical Vapor Deposition). Il materiale, che non presenta i difetti intrinseci della forma amorfa, è dal punto di vista delle proprietà fisiche fondamentali ancora poco conosciuto e rappresenta una possibile alternativa agli analoghi campioni in forma amorfa. Le misure e le analisi presentate in questa tesi, svolte presso il Dipartimento di Fisica e Astronomia di Bologna, sono finalizzate ad indagare le principali proprietà ottiche, quali l'energy gap e l'indice di rifrazione dei layers. I risultati ottenuti, espressi in funzione dei parametri di deposizione, mostrano che un aumento della concentrazione di ossigeno in fase di deposito implica un aumento lineare dell'ampiezza dell'energy gap e un calo dell'indice di rifrazione. Anche altri parametri come la potenza di deposito e il tempo di annealing sembrano giocare un ruolo importante sul valore dell'energy gap. I risultati appaiono inoltre essere in buon accordo con quanto ottenuto da studi precedenti su layers simili ma con una maggiore fase amorfa. In conclusione, la possibilità di regolare il valore dell'energy gap e l'indice di rifrazione in base ai parametri di deposizione, unita alle buone prerogative tipiche dei materiali cristallini, conferisce al materiale buone prospettive per applicazioni fotovoltaiche come emettitori in celle ad eterogiunzione o rivestimenti con proprietà antiriflettenti
Resumo:
Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.
Resumo:
Quadro normativo sui Dispositivi Medici e la sua evoluzione (2007/47,UNI CEI EN ISO 14971). Software DM: processo di certificazione,gestione di reti IT medicali, ruoli e responsabilità (CEI 80001-1). Casi d'uso: Linee guida: MEDDEV e linee guida svedesi più relativi esempi applicabili alle aziende sanitarie.
Resumo:
Il documento descrive un profilo d'integrazione sviluppato da IHE(Integrating Health Enterprise) con lo scopo di diminuire il rischio clinico nel caso delle terapie infusionali. Vengono descritte nel dettaglio l'organizzazione IHE e la sua struttura, la gestione del rischio, il reparto di terapia intensiva, le pompe infusionali e gli errori ad esse relativi. Tema centrale è l'analisi approfondita del framework IPEC(Infusion Pump Event Communication).
Resumo:
Realizzazione di uno strumento per la misura di campo magnetico e sua stima in valor massimo.
Resumo:
E' stato sviluppato un algoritmo predittivo del rischio di consolidazione ossea (ARRCO – Algoritmo Rischio Ritardo Consolidazione Ossea - IGEA, Carpi, Italy) che combina diversi fattori correlati al rischio di ritardata o mancata guarigione di una frattura. Questo algoritmo ha permesso di idntificare una popolazione di pazienti affetti da fratture con aumentato rischio di ritardo di consolidazione o mancata guarigione. Questi pazienti sono stati sottoposti precocemente a stimolazione biofisica precoce mediante Campi Elettromagnetici Pulsati a bassa frequenza (CEMP), ottenendo la guarigione della frattura nella maggior parte dei casi e in tempi considerati fisiologici. Pertanto in un gruppo selezionato di pazienti, il trattamento può essere indirizzato all'applicazione precoce di CEMP, al fine di promuovere la consolidazione ossea di una frattura "a richio", il cui trattamento richiederebbe altrimenti tempi più prolungati e un costo virtuale maggiore dell'intero trattamento sanitario.
Resumo:
L'obiettivo della tesi è stato quello di sviluppare un sensore che, applicato su una linea ematica, fosse in grado di rilevare le variazioni di conducibilità del liquido posto all'interno della linea stessa. La conducibilità è una grandezza correlata alla concentrazione ionica di un liquido ed è molto importante nel campo dialitico poiché da essa si può ottenere una stima della quantità di elettroliti presente nel sangue. Per lo studio in esame è stata eseguita dapprima una modellazione agli elementi finiti per stabilire una configurazione adeguata del sistema sia dal punto di vista geometrico che da quello elettrico e successivamente sono stati realizzati modelli sperimentali. Per le prove sperimentali si è fatto uso di soluzioni saline poste all'interno di una linea ematica sulla quale sono state eseguite misure tramite un analizzatore di impedenza. È stata quindi studiata la relazione tra l'impedenza misurata ed il valore noto di conducibilità delle soluzioni con la quale è stato dimostrato che il sensore sviluppato è un valido strumento di indagine poiché è riuscito a rilevare le variazioni di conducibilità delle soluzioni in esame con un alto grado di sensibilità.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
The aim of the present thesis was to investigate the influence of lower-limb joint models on musculoskeletal model predictions during gait. We started our analysis by using a baseline model, i.e., the state-of-the-art lower-limb model (spherical joint at the hip and hinge joints at the knee and ankle) created from MRI of a healthy subject in the Medical Technology Laboratory of the Rizzoli Orthopaedic Institute. We varied the models of knee and ankle joints, including: knee- and ankle joints with mean instantaneous axis of rotation, universal joint at the ankle, scaled-generic-derived planar knee, subject-specific planar knee model, subject-specific planar ankle model, spherical knee, spherical ankle. The joint model combinations corresponding to 10 musculoskeletal models were implemented into a typical inverse dynamics problem, including inverse kinematics, inverse dynamics, static optimization and joint reaction analysis algorithms solved using the OpenSim software to calculate joint angles, joint moments, muscle forces and activations, joint reaction forces during 5 walking trials. The predicted muscle activations were qualitatively compared to experimental EMG, to evaluate the accuracy of model predictions. Planar joint at the knee, universal joint at the ankle and spherical joints at the knee and at the ankle produced appreciable variations in model predictions during gait trials. The planar knee joint model reduced the discrepancy between the predicted activation of the Rectus Femoris and the EMG (with respect to the baseline model), and the reduced peak knee reaction force was considered more accurate. The use of the universal joint, with the introduction of the subtalar joint, worsened the muscle activation agreement with the EMG, and increased ankle and knee reaction forces were predicted. The spherical joints, in particular at the knee, worsened the muscle activation agreement with the EMG. A substantial increase of joint reaction forces at all joints was predicted despite of the good agreement in joint kinematics with those of the baseline model. The introduction of the universal joint had a negative effect on the model predictions. The cause of this discrepancy is likely to be found in the definition of the subtalar joint and thus, in the particular subject’s anthropometry, used to create the model and define the joint pose. We concluded that the implementation of complex joint models do not have marked effects on the joint reaction forces during gait. Computed results were similar in magnitude and in pattern to those reported in literature. Nonetheless, the introduction of planar joint model at the knee had positive effect upon the predictions, while the use of spherical joint at the knee and/or at the ankle is absolutely unadvisable, because it predicted unrealistic joint reaction forces.
Resumo:
Funzioni di adattatività delle frizioni: Sono state ricercate ed individuate le cause dei diversi risultati delle adaption riscontrati tra costruttore cambi e Ferrari Torque Map (mappe pressione-slip-coppia): E’ stato realizzato uno strumento in grado di calcolare e simulare il funzionamento delle stesse a partire dalle misure a banco: esito positivo dei test in vettura con i nuovi dati Considerazioni sul processo di rodaggio delle frizioni: E’ stata valutata l’efficacia della nuova procedura in relazione a quanto fatto in precedenza in seguito alla bassa stabilità riscontrata nelle frizioni
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
Questa tesi di laurea è stata redatta presso l’azienda Sacmi Imola S.C. ed in particolare all’interno della divisione Closures, che si occupa della progettazione e della realizzazione di linee per la produzione di varie tipologie di capsule. Lo scopo dell’elaborato è descrivere lo sviluppo di un sistema di tracciabilità di prodotto; sistemi di questo tipo, adottati inizialmente nel settore alimentare, stanno acquisendo sempre maggiore importanza anche in altri campi produttivi, poiché rivestono un ruolo strategico al fine della realizzazione di prodotti caratterizzati da livelli elevati di performance e di qualità, capaci di emergere nel mercato moderno caratterizzato da una concorrenza estesa a livello mondiale e molto attento alle esigenze dei clienti. Nel caso specifico di Sacmi il sistema di tracciabilità si rivolge ad una pressa, la CCM (Continuous Compression Moulder), realizzata dall’azienda per la produzione di capsule in materiale termoplastico tramite la tecnologia dello stampaggio a compressione. In particolare il sistema si concentra sugli stampi della macchina CCM, i quali ne rappresentano gli elementi critici dal punto di vista sia tecnico che economico. A livello generale, un sistema di tracciabilità è costituito da due componenti fondamentali: il primo è un sistema di identificazione che permetta di rendere distinguibili ed individuabili le unità da tracciare, mentre il secondo è un sistema di raccolta dati in grado di raccogliere le informazioni desiderate. Queste sono poi archiviate in un apposito database ed attribuite alle entità corrispondenti sfruttando le proprietà del sistema di identificazione. Il primo passo da compiere quando si intende sviluppare un sistema di tracciabilità all’interno di un contesto produttivo già consolidato è la ricostruzione del processo produttivo presente in azienda: si tratta di individuare tutti gli enti aziendali che concorrono al processo e che saranno interessati dall’introduzione del nuovo sistema. Una volta definiti gli attori, è necessario anche capire come questi siano collegati dai flussi di materiale e di informazioni. Il processo produttivo di Sacmi era caratterizzato dalla quasi totale assenza di un flusso strutturato di informazioni a supporto di quello di materiale, ed il sistema di tracciabilità ha provveduto a colmare proprio questa mancanza. Il sistema deve essere in grado di integrarsi perfettamente nel contesto produttivo aziendale: è necessario trovare il giusto compromesso per quanto riguarda la quantità di informazioni da raccogliere, che devono garantire una corretta copertura di tutto il processo senza però appesantirlo eccessivamente. E’ bene che la raccolta dati sia basata su procedure standard che assicurino la ripetibilità delle operazioni di prelievo delle informazioni. Come è logico immaginarsi, l’introduzione di numerose novità nell’ambito di un contesto già strutturato ha fatto emergere un certo numero di problematiche, come ad esempio difficoltà nello stoccaggio e ritardi di produzione; queste devono essere risolte chiedendo uno sforzo aggiuntivo agli enti interessati o, nel medio/lungo periodo, evolvendo ed affinando il sistema con soluzioni più snelle.
Resumo:
L’elevata presenza dei residui dei farmaci nell’ambiente acquatico desta preoccupazione per la salute della fauna acquatica e per un eventuale rischio per l’uomo. Dopo l’assunzione, i farmaci vengono escreti come tali o come metaboliti attivi, risultando spesso resistenti ai processi di trattamento delle acque. Per questo motivo alcuni di essi sono pseudo-persistenti raggiungendo concentrazioni di ng-µg/L. I farmaci sono molecole disegnate per essere biologicamente attive a basse concentrazioni su bersagli specifici, per questo motivo possono indurre effetti anche su specie non target con bersagli molecolari simili all’uomo a concentrazioni ambientali. A tal proposito il presente lavoro intende investigare gli effetti della caffeina, ampiamente usata come costituente di bevande e come farmaco, presente nelle acque superficiali a concentrazioni di ng-µg/L. Come organismo di studio è stato scelto il Mytilus galloprovincialis, sfruttando le conoscenze disponibili in letteratura circa le sue risposte ai contaminanti ambientali. I mitili sono stati esposti in acquario a caffeina (5, 50 e 500 ng/L) per 7 giorni e poi analizzati attraverso una batteria di otto biomarker, alterazioni fisiologiche o biochimiche che forniscono informazioni circa lo stato di salute degli animali. I metodi utilizzati sono stati diversi a seconda dei biomarker (analisi citochimiche e saggi enzimatici). Le concentrazioni sono state scelte nel range ambientale. L’esposizione ha prodotto alterazioni della stabilità della membrana lisosomiale negli emociti e l’instaurarsi di processi di detossificazione nella ghiandola digestiva, evidenziati dall’aumento dell’attività della glutatione S-transferasi. Gli altri biomarker non mettono in evidenza che la caffeina, in queste condizioni sperimentali, possa indurre alterazioni della funzionalità lisosomiale, effetti ossidativi o neurotossici. I dati ottenuti sui mitili, quindi, suggeriscono che la caffeina, anche nel range di concentrazioni ambientali più elevato, possa essere considerata un contaminante che desta bassa preoccupazione.
Resumo:
Questo elaborato nasce da uno stage presso lo stabilimento Bonfiglioli Trasmital S.p.A. di Forlì, un’azienda manifatturiera specializzata nella produzione, costruzione e distribuzione di motoriduttori di velocità, sistemi di azionamento e motoriduttori epicicloidali applicati nel campo industriale, dell’automazione, delle macchine movimento terra e nell’ambito delle energie alternative. Il progetto ha lo scopo di aumentare la disponibilità di un impianto di tempra ad induzione. La scelta di tale impianto quale oggetto dell’attività, proviene da un’analisi delle ore di disponibilità perse per inefficienza, nell’anno 2012, in tutto il reparto di lavorazione meccanica dello stabilimento produttivo di Forlì e dall’analisi dell’OEE (Overall equipment effectiveness), indicatore principale per stabilire l’efficienza di un impianto. Analizzando la natura delle perdite del macchinario, tipicamente guasti, micro fermate e setup, si è deciso di applicare le tecniche di TPM e dello SMED: il TPM (Total Productive Maintenance) persegue l’obiettivo di migliorare la produttività degli impianti e la loro efficacia, grazie alla riduzione delle cause di perdita ricercando il miglioramento continuo del processo di produzione e della qualità, mentre lo SMED (Single-Minute Exchange of Die) è una metodologia volta alla riduzione dei tempi di cambio produzione; la grande innovazione di tale teoria risiede nella possibilità di ridurre fortemente i tempi impiegati per effettuare un’operazione di setup con un solo digit ossia in un lasso di tempo inferiore a dieci minuti.