528 resultados para gruppi di omotopia di ordine superiore cobordismo con framing gruppi di omotopia delle sfere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti. Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati. Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti. Questo lavoro di Tesi attua un confronto tra le MF a 0di galassie simulate con i modelli teorici, per capire a quali redshift, a quali masse e per quali sottocampioni di galassie la riproduzione dei dati avviene in maniera migliore e dove invece risiedono i maggiori problemi. Si vede come le funzioni di massa cambino al variare del tasso di formazione stellare nei modelli e le differenze che vi sono nella loro distribuzione in base a colore e SFR. Infine si studia come varia col redshift la densità numerica delle galassie quiescenti osservate e teoriche di diversa massa. Anche questo tipo di confronto ha come scopo quello di sondare le differenze tra modelli ed osservazioni su quali siano le modalità e le tempistiche di evoluzione delle galassie a seconda della loro massa e su cosa sia quello che, dai modelli, costruiti sulla base dei processi fisici che conosciamo, non riesce ancora ad essere riprodotto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avvento delle tecniche di imaging volumetrico, quali la CT (Computed Tomography) e la MRI (Magnetic Resonance Investigation), ha portato ad un crescente interesse verso applicazioni di guida chirurgica che utilizzano processi di allineamento delle immagini diagnostiche provenienti da diverse modalità e di tecniche che ne permettono la visualizzazione in sala operatoria, in modo da fornire al chirurgo il maggior numero di informazioni cliniche possibili durante un intervento. Il crescente interesse verso questo tipo di applicazioni è dovuto anche allo sviluppo di dispositivi di imaging intra-operatorio quali archi a C-mobili radiologici, PC ad alte prestazioni e convertitori A/D 3D con precisione clinicamente accettabile. Questi ultimi due hanno conseguentemente portato a sviluppare ed implementare software dedicati alla pianificazione di un intervento chirurgico, permettendo quindi di elaborare digitalmente le immagini diagnostiche e ricostruire un modello che rappresenta l’effettiva anatomia del paziente. Questo processo nel suo complesso ha portato allo sviluppo di quelli che oggi vengono chiamati sistemi di navigazione chirurgica, abbreviati talvolta in IGSS (Imaging-Guided Surgery Systems), sistemi ovvero che permettono di utilizzare immagini pre-operatorie come guida durante la pratica chirurgica, caratterizzando quindi nuovi metodi di approccio alla chirurgia, le IGS (Image-Guided Surgery) appunto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esperimenti condotti negli anni Ottanta per la determinazione della vita media di alcuni radioisotopi sembrano mostrare fluttuazioni anomale del valore delle costanti di decadimento. Negli anni a seguire, altri studi hanno tentato di spiegare l'origine delle fluttuazioni osservate in questi primi lavori. Insieme agli esperimenti che hanno mostrato anomalie, però, ve ne sono altri che non hanno registrato alcuna deviazione. Con il seguente elaborato si ha l'intento di ordinare e organizzare schematicamente gli articoli pubblicati finora e realizzare così un quadro della situazione attuale. Questo può essere utile per predisporre un esperimento, da svolgersi presso il Laboratorio di Fisica delle Radiazioni del Dipartimento di Fisica e Astronomia dell'Università di Bologna, che possa arricchire la casistica del fenomeno. Si affronta in conclusione la progettazione dell'esperimento a lungo termine, per il quale si prevede inizialmente una durata triennale delle osservazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questo elaborato intendo presentare la mia proposta di traduzione delle scene 1, 5, 7 e 9 dell'opera teatrale La Souffrance d'Alexandre di Jean Louvet e il relativo commento. L'elaborato si divide in tre capitoli: nel primo introduco l'autore Jean Louvet, parlando del suo teatro e del suo stile. Nel secondo capitolo presento l'opera La souffrance d'Alexandre, e nel terzo propongo la mia traduzione accompagnata dal relativo commento in cui illustro ogni problematica traduttiva incontrata e motivo ogni mia scelta traduttiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acqua è una delle risorse critiche del pianeta e l’acqua dolce accessibile all’uomo rappresenta meno dell’1% delle risorse idriche; da questi numeri si capisce quanto siano importanti la prevenzione dell’inquinamento ambientale e i processi di depurazione delle acque reflue. A partire dagli anni ’70, grazie anche al miglioramento delle tecniche analitiche, sono iniziati monitoraggi degli inquinanti nelle acque superficiali e sotterranee e sono state riscontrate concentrazioni di inquinanti, i cui effetti di tossicità cronica sull’uomo e l’ecosistema non sempre sono trascurabili. Inoltre si è rilevato che alcune molecole di sintesi sono difficilmente biodegradabili e non sono mineralizzate con i trattamenti convenzionali di depurazione; perciò l’Unione Europea ha emanato delle direttive per preservare le risorse idriche in cui è contenuto un elenco di sostanze prioritarie, per le quali sono stati fissati gli standard di qualità ambientale. Nel 2013 è stata anche istituita una watch list che contiene dieci sostanze sulle quali raccogliere dati di monitoraggio ambientale e effetti sugli ecosistemi. Di qui la ricerca costante di nuovi trattamenti di depurazione delle acque, tra i quali i processi di ossidazione avanzata attirano molto interesse perché promettono di mineralizzare i composti bio-recalcitranti senza produrre fanghi da smaltire o sottoprodotti pericolosi. Oggetto della presente tesi sperimentale, svolta presso il Consiglio Nazionale delle Ricerche, nell’Istituto per la Sintesi Organica e la Fotoreattività, è stato lo studio della de-gradazione e mineralizzazione di una miscela di cinque molecole (diclofenac, carbama-zepina, triton X-100, benzofenone-3, benzofenone-4), scelte per le diverse caratteristiche chimico-fisiche, utilizzando radiazione ultravioletta e ultrasuoni, in presenza di biossido di titanio come fotocatalizzatore o perossido d'idrogeno come additivo per produrre radicali idrossile e avviare catene di reazioni ossidative. A partire dai fenomeni fotochimici o fotocatalitici così ottenuti, eventualmente assistiti da ultrasuoni, sono stati studiati gli effetti delle variazioni dei parametri operativi sulla degradazione dei componenti della miscela e sono stati valutati i consumi energetici della strumentazione prototipale per unità di massa del contaminante degradato. La parte sperimentale è stata preceduta da un’accurata ricerca bibliografica riguardo gli effetti di tossicità degli inquinanti ritrovati nelle acque, la legislazione europea ed italiana in materia ambientale e delle acque e i processi di ossidazione avanzata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro è stato svolto presso IEMCA, azienda attiva nel settore della produzione di caricatori automatici di barre, e si è composto a grandi linee di tre fasi. Nella prima di queste tre fasi è stata analizzata la strumentazione adatta ad eseguire i rilievi di vibrazioni disponibile in azienda con il fine di comprenderne le potenzialità. Questa prima parte del lavoro si è conclusa con il consolidamento di una buona conoscenza del software e dell'hardware a disposizione. Nella seconda fase ci si è concentrati invece sull'elaborazione di un metodo di analisi delle vibrazioni applicabile alle macchine prodotte da IEMCA. A questo scopo si è studiata la macchina denominata Master80Up con il fine di ricavare una procedura di indagine estendibile in futuro anche agli altri sistemi automatici prodotti da IEMCA. La scelta di questo particolare modello è discesa dall'essere in corso di aggiornamento nel momento particolare in cui si è svolto il lavoro. La seconda fase ha visto inizialmente l'elaborazione di un modello fisico della macchina, utilizzato poi nel seguito come supporto all'esecuzione dell'analisi della vibrazione libera della struttura che ha permesso di ottenere una stima qualitativa delle frequenze naturali e dei modi di vibrare del sistema. Nella terza fase infine si è ripetuta la procedura elaborata sulla versione aggiornata della macchina, denominata Master80HD, per verificare gli effetti di irrobustimenti strutturali studiati dall'ufficio tecnico i quali si sono rivelati utili in generale alla riduzione della vibrazione della macchina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ricercare eventuali variazioni o trend nei fenomeni meteorologici è sempre stato uno degli obiettivi degli studi di ricerca. Il dibattito in letteratura evidenzia la difficoltà nell’individuare in maniera univoca un trend relativo agli eventi precipitativi. Nonostante la grande variabilità climatica, la diminuzione delle precipitazioni in inverno e primavera negli ultimi decenni, nel sud Europa e nella parte occidentale del bacino del Mediterraneo, è stata ampiamente confermata. Inoltre, è sempre più importante osservare come eventuali variazioni nelle precipitazioni possano influenzare variazioni di portata volumetrica di un fiume. Il presente studio ha l’obiettivo di individuare eventuali variazioni nelle precipitazioni e nel regime idraulico del bacino di Imola. Lo studio ha preso in considerazione gli eventi precipitativi dagli anni ’20 al 2014 sul bacino del Santerno, localizzato nelle aree montane centro orientali dell’Emilia-Romagna. Dopo aver effettuato il controllo qualità e di omogeneità sui dati ne è stata fatta un’analisi statistica da cui è risultato, in accordo con la letteratura, una diminuzione delle precipitazioni cumulate invernali e del numero di giorni piovosi annuali per alcune stazioni considerate. Attraverso l’uso del modello TOPKAPI, sono state ricostruite alcune variabili idrologiche, come la portata del fiume in una particolare sezione di chiusura, l’umidità del suolo, l’evapotraspirazione potenziale ed effettiva, così da poterne valutare i trend stagionali e annuali. Non è stata rilevata alcuna variazione sia nella portata massima e minima annuale che in quella oraria, mentre è stato identificato un aumento significativo nell’evapotraspirazione potenziale in tutte le stagioni ad eccezione dell’autunno e una diminuzione della saturazione del suolo in inverno e primavera. Infine, le analisi sulle precipitazioni aggregate hanno confermato i risultati ottenuti nella prima parte dello studio. Per concludere, nonostante siano stati evidenziati alcuni cambiamenti significativi nelle precipitazioni cumulate stagionali, non è stata riscontrata alcuna variazione apprezzabile della portata per la sezione di chiusura considerata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.