382 resultados para valore atteso prezzo equo momenti utilità
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
Nell'elaborato è stato svolto uno studio su più livelli degli elementi essenziali del pacemaker asincrono secondo la realizzazione circuitale proposta da Wilson Greatbatch nel 1960. Un primo livello ha riguardato l’analisi teorica del circuito. Un secondo livello ha riguardato un’analisi svolta con LTSPICE. Con questo stesso programma, si è analizzato il segnale di temporizzazione e la forma d’onda sul carico al variare del valore di alcuni componenti chiave del circuito. Infine, si è proceduto alla sua realizzazione su breadboard.
Resumo:
La furfurale (FU) rappresenta una delle più importanti molecole piattaforma per la produzione di biocarburanti e prodotti chimici a partire dalle biomasse. L’elevato interesse che si nutre nei confronti di tale molecola è giustificato dall’ampio spettro di reazioni che possono essere condotte su di essa al fine di ottenere prodotti di interesse industriale, quali, ad esempio, il furfuril alcool (FAL) e il metilfurano (MFU). I processi attualmente utilizzati per la produzione di tali molecole usano H2 e costosi catalizzatori a base di metalli nobili. Un’alternativa interessante a questi processi è quella che prevede di utilizzare un alcool come fonte di idrogeno tramite un processo di H-transfer su catalizzatori a base di ossidi misti. Lo scopo di questa tesi è stata quindi la sintesi e lo studio delle proprietà catalitiche del sistema FeVO4, nella reazione di riduzione in fase gas della furfurale, usando metanolo come agente di H-transfer. Il catalizzatore è stato ottenuto mediante coprecipitazione dei precursori di Fe e V e successivamente calcinato. La caratterizzazione Raman e XRD ha confermato la bontà della procedura di sintesi. I risultati dei test catalitici hanno mostrato che nelle condizioni ottimali il sistema è altamente selettivo nella riduzione della FU a MFU, mentre i prodotti secondari sono 2-vinilfurano e 2,5-dimetilfurano. A causa della deposizione di specie carboniose sulla superficie del catalizzatore, la conversione della FU tende a diminuire col passare delle ore di reazione. Tuttavia il sistema risulta rigenerabile grazie ad un trattamento in aria a 450°C. Inoltre l’analisi XRD dei catalizzatori scaricati ha mostrato che l’ossido misto subisce un processo di riduzione a seguito dell’interazioni con il metanolo, in quanto la stechiometria Fe:V:O passa dal valore di 1:1:4 a valori di 1:1:3. Sulla base di questi dati il processo di produzione del MFU è stato ulteriormente ottimizzato effettuando un pretrattamento riduttivo del catalizzatore prima dei test catalitici.
Resumo:
L'elaborato illustra una possibile soluzione al problema della correzione del movimento respiratorio in dati ecografici di perfusione epatica per la valutazione della pressione portale. La tecnica proposta si basa sul segnale monogenico e sull’informazione di fase dell’immagine. Inizialmente sono stati presentati gli strumenti atti alla valutazione della vascolaritá epatica, con una particolare focalizzazione sulle tecniche non invasive per diagnosticare l’ipertensione portale. Tra di esse l’ecografia con mezzo di contrasto si impone come uno dei metodi più efficaci e soprattutto meno invasivi. In seguito è stato presentato un recente studio secondo cui, tramite l’elaborazione delle curve di enhancement ottenute dalla sequenza ecografica, è possibile stimare dei parametri correlati al valore di pressione portale. Tuttavia, durante l’esecuzione dell’esame ecografico, i movimenti respiratori del paziente non sempre consentono una corretta valutazione di tali parametri. In questa tesi è stata indagata la possibilità di compensare questi artefatti mediante l'applicazione di una metodo di tracking basato sul vincolo di conservazione della fase dell'immagine. Il metodo è stato testato qualitativamente su sequenze di immagini ecografiche acquisite all’ospedale di Barcellona e all’ospedale Sant’Orsola di Bologna, con risultati promettenti.
Resumo:
Scopo. La risonanza magnetica (RM) in diffusione (Diffusion Weighted imaging DWI) permette di ottenere dati quantitativi sul movimento dei protoni liberi in acqua mediante la valutazione di alcuni parametri tra cui il coefficiente di diffusione apparente (Apparent Diffusion Coefficient ADC). Questo parametro potrebbe essere usato per differenziare i diversi tipi di tessuti (cisti di diverso tipo, parenchima sano, parenchima non più funzionante, …) e stabilire il danno renale. Lo scopo del presente lavoro è quello di valutare la correlazione tra il valore di ADC e il tessuto renale al fine di verificare la potenziale capacità di questo parametro di offrire informazioni funzionali e poter predire l’insorgenza di cisti e quindi l’aumento di volume del rene. Materiali e Metodi. 11 pazienti di cui 2 donne e 9 uomini (età compresa tra i 55 e i 75 anni) sono stati sottoposti a esame RM con sistema ad alto campo 1,5T. Tutti i pazienti erano affetti da malattia policistica. Il protocollo prevedeva l’utilizzo di una sequenza SE-EPI pesata in diffusione, le immagini sono state acquisite per diversi valori di b-value (500 s/mm², 700 s/mm², 900 s/mm², e 1500 s/mm²). Risultati. Osservando i valori di ADC (coefficiente di diffusione apparente) ottenuti per diversi valori di b e in due differenti regioni del rene, corrispondenti a cisti e parenchima, si sono riscontrati valori diversi . Indipendentemente dal b-value, le cisti hanno un valore di ADC minore rispetto al valore di ADC delle zone parenchimali. Al crescere del b-value, tali valori diventano più piccoli. Conclusioni. La DWI permette di ottenere valori di ADC in grado di discriminare tessuti.
Resumo:
Il TiO2 è probabilmente il fotocatalizzatore maggiormente studiato in letteratura a partire già dagli anni settanta. Le applicazioni più rilevanti dei dispositivi fotocatalitici sono in campo ambientale (depurazione delle acque da inquinanti quali coloranti, microbatteri e residui metallici) e nella produzione di "solar fuel" (combustibili solari), fra questi l'idrogeno. L'idrogeno come vettore energetico è eco-compatibile e può essere utilizzato come carburante il cui prodotto di scarto è vapor d'acqua. Il biossido di titanio è uno dei materiali più promettenti per la costruzione di celle fotocatalitiche, grazie alla sua biocompatibilità e resistenza alla corrosione in ambiente acquoso. Il limite principale di questo materiale è legato allo scarso assorbimento nel visibile dovuto al band gap troppo elevato (circa 3.2 eV). Fra le varie strategie per superare questo problema, è stato mostrato che opportuni droganti permettono di incrementare la "Visible Light Activity", portando ai cosiddetti fotocatalizzatori di 2a generazione. I droganti più promettenti sono il vanadio e l'azoto che possono essere utilizzati singolarmente o in co-doping. L'inserimento di questi materiali nella matrice di TiO2 porta a un notevole miglioramento dei dispositivi abbassando il valore di band gap e permettendo un maggiore assorbimento nello spettro solare. Scopo di questa tesi è lo studio dei processi di crescita di film nanoparticellari di TiO2 drogato con vanadio. La tecnica di crescita usata è la Condensazione in Gas Inerte (IGC), mentre per l'indagine di morfologia e composizione ci si è serviti della microscopia elettronica. Con l'ausilio della diffrazione di raggi X è stato possibile controllare lo stato di cristallizzazione e determinare a quali temperature di trattamento in atmosfera ossidante avviene quest'ultima. Tramite le misure micro-Raman effettuate presso i laboratori dell'Università di Trento è stato possibile monitorare l'andamento della cristallizzazione di campioni depositati con parametri di evaporazione differenti (presenza di ossigeno o meno nell'atmosfera di evaporazione), evidenziando un maggior controllo sulla fase cristallina ottenuta per i campioni cresciuti in atmosfera ricca di ossigeno. Sono state effettuate analisi strutturali avanzate presso i laboratori ESRF di Grenoble, dove sono state portate avanti misure di assorbimento di raggi X di tipo EXAFS e XANES sulla soglia del titanio e del vanadio, evidenziando il carattere sostituzionale del vanadio all'interno della matrice di TiO2 e le diverse fasi di cristallizzazione.
Resumo:
L’idrotermocarbonizzazione è un processo che permette di convertire un’elevata quantità di materie prime solide in carbone. Ciò viene realizzato inserendo come sostanza in input, oltre alla materia prima iniziale, acqua liquida e, successivamente, riscaldando fino a 180°C, temperatura alla quale inizia la reazione esotermica ed il processo diventa di tipo stand-alone. Tale reazione presenta un tempo di reazione variabile nel range di 4÷12 h. I prodotti in uscita sono costituiti da una sostanza solida che ha le caratteristiche del carbone marrone naturale e un’acqua di processo, la quale è altamente inquinata da composti organici. In questo elaborato viene illustrata una caratterizzazione dei prodotti in uscita da un impianto di idrotermo carbonizzazione da laboratorio, il quale utilizza in input pezzi di legno tagliati grossolanamente. Inizialmente tale impianto da laboratorio viene descritto nel dettaglio, dopodiché la caratterizzazione viene effettuata attraverso DTA-TGA dei materiali in ingresso ed uscita; inoltre altre sostanze vengono così analizzate, al fine di confrontarle col char ed i pezzi di legno. Quindi si riporta anche un’analisi calorimetrica, avente l’obiettivo di determinare il calore di combustione del char ottenuto; attraverso questo valore e il calore di combustione dei pezzi di legno è stato possibile calcolare l’efficienza di ritenzione energetica del processo considerato, così come la densificazione energetica riscontrata nel materiale in uscita. In aggiunta, è stata eseguita un’analisi delle specie chimiche elementari sul char ed il legno in modo da determinare i seguenti parametri: fattori di ritenzione e fattori di ritenzione pesati sulla massa in termini di concentrazione di C, H, N e S. I risultati ottenuti da tale analisi hanno permesso di effettuare una caratterizzazione del char. Un tentativo di attivazione del char viene riportato, descrivendo la procedura di attivazione seguita e la metodologia utilizzata per valutare il buon esito o meno di tale tentativo di attivazione. La metodologia consiste di uno studio isotermo dell’adsorbimento di acido acetico sul char “attivato” attraverso una titolazione. I risultati sperimentali sono stati fittati usando le isoterme di Langmuir e Freundlich e confrontati con le capacità di adsorbimento del semplice char e di un campione di carbone attivo preso da un’azienda esterna. Infine si è considerata l’acqua di processo, infatti un’analisi fotometrica ne ha evidenziato le concentrazioni di TOC, COD, ioni nitrato e ioni fosfato. Questi valori sono stati conseguentemente confrontati con i limiti italiani e tedeschi massimi ammissibili per acque potabili, dando quindi un’idea quantitativa della contaminazione di tale acqua di processo.
Resumo:
Un discreto numero di molecole biologicamente attive contenute nei cibi vegetali si suppone esercitino un ruolo preventivo e favorevole su molteplici funzioni dell’organismo, con meccanismi d’azione spesso legati alla modulazione diretta e indiretta dello stress ossidativo. Acido ascorbico, tocoferoli, carotenoidi, polifenoli, posseggono attività antiossidante e giocano un ruolo positivo nella conservazione dello stato di salute. L’elevato contenuto di essi nei peperoni dolci (Capsicum Annuum L.) ha incrementato l’interesse nei confronti di questi vegetali da parte del settore agronomico e dell’industria alimentare. È tuttavia noto che la concentrazione di composti bioattivi può essere molto diversa anche tra cultivar della stessa specie vegetale ed è pertanto importante evidenziare il contenuto quali-quantitativo delle varie molecole nelle diverse cultivar di peperoni dolci, in modo da evidenziare le più ricche di tali componenti. Occorre però tenere conto anche della biodisponibilità e bioaccessibilità dei diversi componenti funzionali. Infatti il possibile effetto positivo di tali molecole non dipende solo dal loro contenuto nell’alimento ma soprattutto dalla quantità che viene rilasciata dalla matrice alimentare durante il processo digestivo, e che quindi risulta essere potenzialmente biodisponibile e attivo nell’organismo. Scopo della ricerca presentata è stato valutare e confrontare la digeribilità e la bioaccessibilità di alcuni composti bioattivi antiossidanti in peperoni dolci rossi e gialli appartenenti a due diverse cultivar, Lamuyo e Corno di Toro. Il contenuto fenolico totale e di vitamina C, l’attività antiossidante totale sono stati determinati nei campioni di peperone digeriti in vitro, e comparati ai prodotti freschi, evidenziando differenze significative in termini di bioaccessibilità in particolare tra i peperoni rossi delle due cultivar. Sebbene il processo di digestione in vitro sia una simulazione parziale ed incompleta di quanto accade in vivo, la valutazione di un alimento dopo averlo sottoposto a tale processo rappresenta un importante progresso nello studio delle proprietà e del valore nutrizionale degli alimenti.
Resumo:
ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto
Resumo:
Nell'ambito della terapia medico-nucleare si fa uso di radionuclidi legati a molecole di interesse biologico per poter irradiare le cellule cancerogene di un determinato tessuto, al fine di provocarne l'inattivazione e la morte. Il 223Ra-cloruro è un radiofarmaco di recente introduzione volto al trattamento di metastasi ossee dovute al tumore della prostata. Esso è un emettitore alfa ed è ottenuto tramite un generatore caricato con 227Ac/227Th all'equilibrio. Il radiofarmaco, oltre al breakthrough del progenitore, può contenere anche tracce di 226Ra e 228Th, derivanti dal suo processo produttivo. In questo lavoro di tesi è stato valutato il valore di purezza radionuclidica del 223Ra-cloruro, ricercando la presenza dei suddetti contaminanti, attraverso l'analisi del radiofarmaco mediante uno spettrometro gamma con rivelatore HPGe. Nonostante in uno dei lotti sia stata effettivamente rilevata la presenza del progenitore 227Ac, le misure eseguite hanno comunque confermato l'alto valore di purezza radionuclidica riportato nel Summary of Product Characteristics (SPC) del radiofarmaco. Ciò conferma che non viene somministrata una dose di radiazione ingiustificata al paziente dovuta alla presenza dei contaminanti e semplifica la relativa gestione dei rifiuti radioattivi e le procedure autorizzative.
Resumo:
L'obiettivo di questo studio è stato quello di tracciare il percorso e gli elementi che hanno caratterizzato il fenomeno della Canción Protesta, ascrivibile al più ampio movimento della Canción Popular, nel tardo franchismo, partendo dalle origini di tale fenomeno, riconducibili alla nascita della Nova Cançó catalana negli anni Cinquanta. Si ritiene che il ruolo della musica nel contesto relativo al nostro studio, sia una chiave fondamentale per ottenere un nuovo tipo di interpretazione della storia politica, sociale e soprattutto culturale della Spagna. Generalmente quello musicale, non è un ambito al quale viene fatto riferimento quando ci addentriamo nell'analisi di determinati momenti storici, mentre, come abbiamo potuto constatare dal nostro studio, i fenomeni e i movimenti musicali sono di grande aiuto per comprendere l'evoluzione degli eventi e della storia di un Paese.
Resumo:
Lo scopo di questa tesi è valutare la resistenza a compressione e il valore del modulo elastico di tre laminati ottenuti con lo stesso materiale composito, CFRP, distinti in fase di laminazione dall’utilizzo di tre diverse tipologie di distaccante (peel-ply, film distaccante e controstampo). In questo modo è stato possibile valutare come quest’ultimi abbiano influito, in modo diverso per ogni laminato, sull’omogeneità dello spessore, sul peso, sulla fuoriuscita di resina e sulla percentuale volumetrica delle fibre. Tali fattori a loro volta hanno caratterizzato i valori di resistenza a compressione e modulo elastico. Nei capitoli successivi è descritto un metodo di analisi a compressione dei materiali compositi, a matrice epossidica rinforzata con fibre di carbonio (CFRP), denominato Combined Loading Compression (CLC) Test Method, basato sull’applicazione, combinata, del carico sul campione, a taglio e all’estremità. La realizzazione dei provini è stata effettuata presso i laboratori dell’università: sono stati realizzati 3 laminati, per ognuno dei quali si è scelto di utilizzare su ogni pezzo una diversa tipologia di distaccante: controstampo, film distaccante e peel-ply, allo scopo di valutare quanta resina uscirà dal manufatto una volta in autoclave e quanta variazione di spessore avremo. Da ognuno di questi laminati sono stati ricavati 5 provini. La campagna sperimentale è stata condotta presso il Laboratorio Tecnologie dei Materiali Faenza (TEMAF). L’elaborazione dei dati è stata effettuata mediante l’utilizzo del software Office Excel, in cui sono stati calcolati i parametri fondamentali, suggeriti dalla normativa ASTM D6641/D6641M, per la caratterizzazione meccanica a compressione dei materiali CFRP.
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.
Resumo:
Siracusa, importante città della Sicilia sud orientale, si affaccia sul Mar Ionio ed è situata in una zona altamente esposta al pericolo di tsunami, di tipo locale e non: fra i numerosi eventi che hanno colpito quest’area si ricordano i maremoti dell’11 gennaio 1693 e del 28 dicembre 1908. L’obiettivo di questa Tesi è studiare la vulnerabilità sociale, esposizione e rischio legati a un’eventuale inondazione di Siracusa dovuta a tsunami. Il presente lavoro è strutturato come segue. Innanzitutto, si fornisce una descrizione della regione interessata illustrandone gli aspetti geografici e geologici e tracciando una breve sintesi della sequenza degli tsunami che l’hanno colpita. Successivamente si prende in esame la vulnerabilità, in particolare la vulnerabilità sociale, facendo un breve excursus dei concetti e delle metodologie di analisi. Nella Tesi lo studio della vulnerabilità sociale sarà diviso in tre fasi che si differenziano sia per l’approccio utilizzato che per le dimensioni dell’area in esame. Nella prima fase viene studiata tutta la costa orientale della Sicilia con l’obiettivo di calcolare la vulnerabilità sociale su base comunale. Per ogni comune della costa verrà calcolato un indice di vulnerabilità noto nella letteratura specialistica come SoVI (Social Vulnerability Index). Nella seconda fase ci si concentra sul comune di Siracusa e si stima il numero di persone potenzialmente colpite da tsunami sulla base di dati statistici disponibili a livello municipale. La terza fase consiste in un’analisi ancora più dettagliata che studia puntualmente le strutture che si trovano nella zona inondata e quantifica il danno sia per le persone che per le costruzioni considerando per queste ultime anche il loro valore economico.
Resumo:
L’elaborato si compone di cinque capitoli. Il primo è dedicato a un excursus della Letteratura per l’infanzia nel corso degli anni, soffermandosi sulla storia, lo sviluppo e la ricezione nel pubblico infantile di alcuni temi tabù quali il dolore, la sofferenza, l’assenza, la morte e la censura a cui spesso sono stati sottoposti. Il capitolo si sofferma, in particolare, sul tema della morte, cercando di tracciarne la presenza nella Letteratura per l’infanzia. Per permettere l’analisi di un così vasto tema, si è scelto di suddividere e analizzare alcune caratteristiche e simboli della morte presenti in racconti, romanzi e album illustrati dedicati al pubblico infantile. Infine, si è scelto di porre l’accento sulla pedagogia della morte, toccando il tema del lutto e della sepoltura. Il primo capitolo acquisisce importanza alla luce dell’analisi del racconto di Gonzalo Moure, nel quale queste tematiche sono molto presenti e vengono utilizzate senza ricorrere a censura. Il secondo capitolo analizza la vita dell’autore e propone i momenti più significativi della sua carriera artistica, professionale e personale, oltre al suo impegno sociale nell’associazione Bubisher a sostegno della causa saharawi. In questo capitolo troviamo, inoltre, un elenco dettagliato delle opere e delle collaborazioni letterarie dell’autore, un accenno al suo stile di scrittura e la trascrizione dell’intervista da me fatta in Spagna a settembre 2015. Nel terzo capitolo si propone l’analisi approfondita del racconto di Moure: l’aspetto paratestuale, le caratteristiche generali del libro, la trama, i personaggi, il tempo e lo spazio del racconto, così come i temi e i valori trattati. Sono inoltre presenti anche le interviste con l’illustratrice e con l’editor. Il quarto capitolo propone la traduzione del racconto En un bosque de hoja caduca, rispettando il layout della versione originale spagnola. Infine, il quinto capitolo vede il commento alla traduzione e le principali categorie di problemi linguistici riscontrati durante il processo traduttivo quali morfosintassi, lessico, toponimi e antroponimi, onomatopee, modi di dire e aspetti grafici.