991 resultados para misure, strumentali, variabilità, stabilità, cammino, indice, rischio, caduta, anziani
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
Gli scintillatori organici contenenti C6D6 (benzene deuterato) sono ampiamente utilizzati per misure ad altra precisione di sezioni d'urto di cattura neutronica presso le facility che sfruttano la tecnica del tempo di volo. In particolare il loro uso nell'ambito della facility n_ToF al CERN di Ginevra ha richiesto la costruzione di nuovi rivelatori con una minore sensibilità ai neutroni di quelli presenti in commercio. In questa tesi si è studiato il nuovo prototipo di C6D6 realizzati dal gruppo italiano di n_ToF descrivendone la struttura e confrontandolo con i precedenti rivelatori realizzati nell'ambito del progetto n_ToF e le controparti commerciali evidenziandone i miglioramenti. Inoltre viene presentato lo studio, effettuato alla facility GELINA, della sensibilità ai neutroni del nuovo C6D6 e la ricerca di difetti costruttivi. Infine è mostrato come i nuovi rivelatori hanno una sezione d'urto per la cattura di nutrono molto bassa e una presenza minima di contaminanti dovuti ai materiali che li compongono.
Resumo:
La maggior parte dei pazienti che vengono sottoposti a interventi chirurgici per tumori solidi hanno un’età superiore a 70 anni1. Circa il 30% di questi pazienti vengono considerati “fragili”. Questi infatti presentano numerose comorbidità ed hanno un più elevato rischio di sviluppare complicanze postoperatorie con perdita della riserva funzionale residua. Per questo non esistono sistemi semplici di screening che permettano ai medici responsabili del trattamento di identificare questi pazienti con aumentato rischio postoperatorio. Identificare i pazienti a rischio è infatti il primo passo nel processo attraverso il quale è possibile prevenire in necessarie complicanze postoperatorie come delirio, eventi cardiovascolari e perdita della funzionalità complessiva con conseguente perdita di autonomia. Scopo di questo studio è quello di confrontare l’accuratezza nella previsione di mortalità e morbidità a 30 giorni dei tre test preditivi “Groningen Frailty Index” (GFI); “Vulnerable Elders Survey” (VES-13); “timed up and go test” con alcune componenti del Preoperative Assessment of Cancer in the Elderly (PACE). Lo studio verrà effettuato sui pazienti con età maggiore di 70 anni che dovranno essere sottoposti a intervento chirurgico in anestesia generale per la presenza di una neoplasia solida.
Valutazione della presenza di contaminanti perfluoroalchilici in alimenti destinati al consumo umano
Resumo:
Le sostanze perfluoralchiliche (PFAS), composti fluorurati ampiamente utilizzati negli ultimi anni in diverse applicazioni industriali e commerciali, sono ritrovati diffusamente nell’ambiente e in diverse specie animali. Recentemente i PFAS hanno destato preoccupazione anche per la salute umana. Il rischio di esposizione è principalmente legato alla dieta (i prodotti ittici sembrano essere gli alimenti più contaminati). Lo scopo di questo lavoro è stato quello di valutare la presenza del perfluorottanosulfonato (PFOS) e dell’acido perfluorottanoico (PFOA), in diverse matrici alimentari: latte vaccino commercialmente disponibile in Italia, latte materno italiano, diverse specie di pesce commercialmente disponibili in Italia e 140 branzini di diverse aree (principalmente Mediterraneo). I campioni di latte sono stati trattati con estrazione liquido-liquido seguita da due fasi di purificazione mediante cartucce SPE prima dell’iniezione nell’UPLC-MS/MS. L’analisi del latte vaccino ha evidenziato una contaminazione diffusa di PFOS, ma a basse concentrazioni (fino a 97 ng/L), mentre il PFOA è stato ritrovato raramente. In questo studio, in grado di individuare anche i livelli delle ultra-tracce, sono state osservate nel latte materno concentrazioni di 15-288 ng/L per il PFOS e di 24-241 ng/LPFOA. Le concentrazioni e le frequenze più alte, per entrambi i PFAS, sono stati ritrovate in campioni di latte forniti da donne primipare, suggerendo un rischio di esposizione per i primogeniti. Il metodo utilizzato per i campioni di pesce era basato su un’estrazione con solvente organico seguita da due fasi di purificazione: una con i sali e una con fase solida dispersiva. L’estratto, analizzato in UPLC-MS/MS, ha confermato la contaminazione di questa matrice a livelli significativi, ma anche l’alta variabilità delle concentrazioni misurate. Il monitoraggio monospecie ha mostrato una contaminazione rilevante (PFOS 11,1- > 10000 ng/L; PFOA < 9-487 ng/L), soprattutto nei branzini pescati, rispetto a quelli allevati.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Nel presente lavoro si introduce un nuovo indice per la valutazione dei prodotti della ricerca: l'indice di multidisciplinarieta`. Questa nuova metrica puo` essere un interessante parametro di valutazione: il panorama degli studi multidisciplinari e` vasto ed eterogeneo, ed all'interno di questo sono richieste necessarie competenze trasversali. Le attuali metriche adottate nella valutazione di un accademico, di un journal, o di una conferenza non tengono conto di queste situazioni intermedie, e limitano la loro valutazione dell'impatto al semplice conteggio delle citazioni ricevute. Il risultato di tale valutazione consiste in un valore dell'impatto della ricerca senza una connotazione della direzione e della rilevanza di questa nel contesto delle altre discipline. L'indice di multidisciplinarieta` proposto si integrerebbe allora all'interno dell'attuale panorama delle metriche di valutazione della ricerca, offrendo -accanto ad una quantificazione dell'impatto- una quantificazione della varieta` dei contesti disciplinari nei quali si inserisce.
Resumo:
La ricerca si è focalizzata su due degli aspetti di interesse odontoiatrico più diffusi: la carie dentaria e la parodontite cronica. Il problema della carie dentaria è stato studiato in una popolazione di 39 soggetti affetti da cardiopatia congenita in cui la scarsa igiene orale è fattore di rischio per problematiche di salute generale e soprattutto per lo sviluppo di endocardite infettiva. I dati osservati e confrontati con quelli di un omogeneo gruppo di controllo dimostrano che nella dentatura decidua questi bambini hanno più denti cariati, come dimostrato dalla significativa differenza dell'indice dmft. Nella dentatura permanente non si osservano differenze tra i due gruppi. La carica microbica totale rilevata nella saliva e la presenza di Streptococcus mutans non mostrano differenze tra i due gruppi. I problemi di parodontite cronica sono stati studiati in un gruppo di 352 soggetti italiani adulti in cui si è definita la prevalenza dei 6 più importanti patogeni parodontali e la possibile correlazione con parametri clinici (pus, sanguinamento al sondaggio - BOP, profondità di sondaggio della tasca parodontale – PPD). Tra le 6 specie batteriche ricercate, quello di più frequente riscontro è stato Fusobacterium nucleatum (95%), mentre quello con carica batterica più alta è stato Tannerella forsythia. La carica batterica di Porphyromonas gingivalis, Treponema denticola, Tannerella forsythia e Fusobacterium nucleatum ha mostrato una correlazione diretta con il BOP e la presenza di pus. Inoltre, si è riscontrato che la carica batterica di tutte le specie (tranne Aggregatibacterium actinomycetemcomitans) aumenta all'aumentare del PPD. Tra le variabili studiate, PPD rappresenta il più importante fattore di rischio per la presenza di parodontopatogeni, mentre BOP è un indicatore di rischio per la ricerca del complesso rosso.
Resumo:
I metalli pesanti presenti nei sedimenti marini possono essere rilasciati alla colonna d’acqua, in seguito a variazioni delle condizioni ambientali, ed entrare nelle catene trofiche degli organismi marini. A partire da una serie di campioni di sedimenti superficiali provenienti dalla Pialassa dei Piomboni (sito SIC-ZPS, a nord della Provincia di Ravenna), prelevati tra novembre e dicembre del 2012, è stato valutato il rischio potenziale associato alla presenza di metalli pesanti (Cd, Cu, Ni, Pb e Zn) per il biota residente nei sedimenti. È stato valutato il comportamento del rapporto SEM/AVS (contenuto di metalli simultaneamente estratti (SEM) e solfuri acidi volatili (AVS)) per ciascuno dei metalli oggetto dello studio. La metodica analitica ha previsto il trattamento dei campioni con HCl 6M, sotto flusso di azoto, e successivamente la lettura del contenuto di solfuro (raccolto in soluzioni di NaOH) e dei metalli pesanti allo spettrometro. Dal valore dei parametri chimico-fisici ottenuti nel momento del campionamento, è evidente che la zona interna della laguna risulta meno influenzata dalle maree rispetto a quella lungo il canale di navigazione. Le concentrazioni di metalli potenzialmente biodisponibili hanno evidenziato una distribuzione eterogenea. Del set di campioni analizzati, soltanto tre presentano un contenuto totale di metalli potenzialmente biodisponibili superiore al contenuto di solfuri labili (∑SEM/AVS>1), per cui la presenza di metalli bivalenti potrebbe rappresentare un rischio per il biota. Come suggerito da diversi autori, si è proceduto con l’ulteriore normalizzazione del rapporto (∑SEM/AVS) con il contenuto di carbonio organico relativo ad ogni campione di sedimento, escludendo possibili rischi associati alla presenza di metalli pesanti.
Resumo:
Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.
Resumo:
Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.
Resumo:
Scopo dello studio: la cardiomiopatia aritmogena (CA) è conosciuta come causa di morte improvvisa, la sua relazione con lo scompenso cardiaco (SC) è stata scarsamente indagata. Scopo dello studio è la definizione della prevalenza e incidenza dello SC, nonché della fisiopatologia e delle basi morfologiche che conducono i pazienti con CA a SC e trapianto di cuore. Metodi: abbiamo analizzato retrospettivamente 64 pazienti con diagnosi di CA e confrontato i dati clinici e strumentali dei pazienti con e senza SC (NYHA III-IV). Abbiamo analizzato i cuori espiantati dei pazienti sottoposti a trapianto presso i centri di Bologna e Padova. Risultati: la prevalenza dello SC alla prima osservazione era del 14% e l’incidenza del 2,3% anno-persona. Sedici pazienti (23%) sono stati sottoposti a trapianto. I pazienti con SC erano più giovani all’esordio dei sintomi (46±16 versus 37±12 anni, p=0.04); il ventricolo destro (VD) era più dilatato e ipocinetico all’ecocardiogramma (RVOT 41±6 versus 37±7 mm, p=0.03; diametro telediastolico VD 38±11 versus 28±8 mm, p=0.0001; frazione di accorciamento 23%±7 versus 32%±11, p= 0.002). Il ventricolo sinistro (VS) era lievemente più dilatato (75±29 ml/m2 versus 60±19, p= 0.0017) e globalmente più ipocinetico (frazione di eiezione = 35%±14 versus 57%±12, p= 0.001). Il profilo emodinamico dei pazienti sottoposti a trapianto era caratterizzato da un basso indice cardiaco (1.8±0.2 l/min/m2) con pressione capillare e polmonare tendenzialmente normale (12±8 mmHg e 26±10 mmHg). L’analisi dettagliata dei 36 cuori dei pazienti trapiantati ha mostrato sostituzione fibro-adiposa transmurale nel VD e aree di fibrosi nel VS. Conclusioni: Nella CA lo SC può essere l’unico sintomo alla presentazione e condurre a trapianto un rilevante sottogruppo di pazienti. Chi sviluppa SC è più giovane, ha un interessamento del VD più severo accanto a un costante interessamento del VS, solo lievemente dilatato e ipocinetico, con sostituzione prevalentemente fibrosa.
Resumo:
La tesi proposta tratta dei sistemi di telemedicina territoriale, ed in particolare dell’integrazione dei dati raccolti tramite un sistema home-care da un paziente domiciliare e dell’analisi di rischio sui sistemi coinvolti. Con il forte sviluppo tecnologico degli ultimi anni, si è diffusa anche la telemedicina, portando con sé numerosi vantaggi nell’ambito della sanità attraverso servizi come il telemonitoraggio, la teleconsultazione e la telechirurgia. In questa tesi ci si concentra soprattutto sull’aspetto del telemonitoraggio di pazienti domiciliari. A causa dell’invecchiamento della popolazione e del conseguente aumento delle malattie croniche, le spese sanitarie sono infatti destinate ad aumentare nel tempo: da una spesa pari al 7,1% del PIL nel 2011 è previsto si arriverà ad un 8,8% del PIL nel 2060. Risulta quindi necessario migliorare la produttività, l’efficienza e la sostenibilità finanziaria del sistema sanitario con un utilizzo sempre maggiore della telemedicina e in particolare dell’assistenza territoriale, ovvero il trasferimento di risorse dall'ospedale al territorio, che promuove quindi la domiciliarità.
Resumo:
progettazione di un sistema di controllo degli accessi basato sul contesto e su valutazione del rischio per ambienti pervasivi