1000 resultados para grado di Brouwer grado di Leray-Schauder
Resumo:
La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
Lo scopo di questa tesi è valutare l’attività di uptake delle cellule nei confronti di nanoparticelle di silice fluorescenti e il loro possibile effetto citotossico. Per verificare l’attività di uptake delle cellule abbiamo utilizzato 4 diverse linee cellulari tumorali umane e abbiamo studiato il comportamento delle nanoparticelle all’interno delle cellule grazie all’utilizzo del microscopio a fluorescenza, con cui abbiamo potuto valutare se le particelle sono in grado di penetrare nel nucleo, soprattutto ad alte concentrazioni o a lunghi tempi di incubazione. Per questa valutazione abbiamo effettuato incubazioni a concentrazioni crescenti di nanoparticelle e a tempi di incubazione sempre più lunghi. Inoltre, abbiamo coltivato le cellule sia in condizioni di crescita ottimali, addizionando il terreno con FBS, che in condizioni subottimali, senza l’aggiunta di FBS nel terreno, perché abbiamo ipotizzato che le proteine presenti nell’FBS potessero disporsi come una corona esternamente alle cellule, ostacolando l’uptake delle nanoparticelle. Infine, abbiamo valutato se le diverse linee cellulari avessero dei comportamenti diversi nei confronti dell’internalizzazione delle nanoparticelle. Per quanto riguarda la valutazione di un possibile effetto citotossico delle nanoparticelle, invece, abbiamo effettuato dei saggi di vitalità cellulare, anche in questo caso utilizzando 4 linee cellulari differenti. Come per l’analisi in microscopia, abbiamo effettuato l’incubazione a concentrazioni crescenti di nanoparticelle, a tempi di incubazione sempre più lunghi e in condizioni ottimali, aggiungendo FBS al terreno, o subottimali, senza FBS. Queste variazioni nelle condizioni di incubazione erano necessarie per capire se la vitalità cellulare potesse dipendere da un’alta concentrazione di nanoparticelle, da lunghi tempi di incubazione e dalla presenza o assenza di FBS e se l’effetto fosse diverso a seconda della linea cellulare sottoposta al trattamento.
Resumo:
La messa a punto di processi in grado di utilizzare le biomasse lignocellulosiche per la produzione di molecole piattaforma, utilizzabili per la sintesi di intermedi per la chimica fine, l’industria polimerica ed i combustibili, è attualmente un argomento di ricerca di grande interesse. Tra le molecole più studiate vi è la furfurale (FU), che si può ottenere mediante disidratazione dei monosaccaridi pentosi contenuti nei materiali lignocellulosici. Il prodotto di riduzione della furfurale, l’alcol furfurilico (FAL), è commercialmente interessante perché trova applicazione nell’industria polimerica e viene utilizzato come intermedio nella produzione di lisina, vitamina C, lubrificanti e agenti dispersanti. In letteratura sono riportati numerosi processi che permettono di ottenere questo prodotto, utilizzando la riduzione catalitica con H2 in pressione, che però presentano problemi di selettività, costo, sostenibilità e tossicità del catalizzatore utilizzato. La possibilità di effettuare la riduzione selettiva della furfurale senza fare ricorso all’idrogeno molecolare, utilizzando un processo di H-transfer e catalizzatori eterogenei a base di ossidi misti, risulta quindi di estremo interesse perché permette di eliminare i suddetti problemi. Lo scopo di questa tesi è stato quello di ottimizzare il processo, confrontando catalizzatori basici, quali MgO, CaO e SrO ottenuti tramite calcinazione a diverse temperature dei rispettivi precursori. In particolare, è stata valutata l’influenza che la temperatura di calcinazione, il tempo e la temperatura di reazione hanno sulla reattività e la stabilità dei sistemi catalitici sintetizzati. La caratterizzazione dei catalizzatori tramite diffrazione ai raggi X (XRD), analisi termiche (TGA, DTA) e misure di area superficiale con tecnica BET ha permesso di correlare le proprietà chimico-fisiche dei materiali con la loro attività catalitica.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
La tecnica di Diffusion Weighted Imaging (DWI) si basa sullo studio del moto diffusivo delle molecole d’acqua nei tessuti biologici ed è in grado di fornire informazioni sulla struttura dei tessuti e sulla presenza di eventuali alterazioni patologiche. Il più recente sviluppo della DWI è rappresentato dal Diffusion Tensor Imaging (DTI), tecnica che permette di determinare non solo l’entità, ma anche le direzioni principali della diffusione. Negli ultimi anni, grazie ai progressi nella tecnica di risonanza magnetica, l’imaging di diffusione è stato anche applicato ad altri distretti anatomici tra cui quello renale, per sfruttarne le potenzialità diagnostiche. Tuttavia, pochi sono ancora gli studi relativi all’applicazione delle metodiche di diffusione per la valutazione della malattia policistica renale autosomica dominante (ADPKD). ADPKD è una delle malattie ereditarie più comuni ed è la principale causa genetica di insufficienza renale dell’adulto. La caratteristica principale consiste nella formazione di cisti in entrambi i reni, che progressivamente aumentano in numero e dimensioni fino a causare la perdita della funzionalità renale nella metà circa dei pazienti. Ad oggi non sono disponibili terapie capaci di arrestare o rallentare l’evoluzione di ADPKD; è possibile controllare le complicanze per evitare che costituiscano componenti peggiorative. Il lavoro di tesi nasce dalla volontà di indagare se la tecnica dell’imaging di diffusione possa essere utile per fornire informazioni sullo stato della malattia e sul suo grado di avanzamento. L’analisi di studio è concentrata sul calcolo del coefficiente di diffusione apparente (ADC), derivato dalle immagini DWI e valutato nella regione della midollare. L’obiettivo di questo lavoro è verificare se tale valore di ADC sia in grado di caratterizzare la malattia policistica renale e possa essere utilizzato in ambito clinico-diagnostico come indicatore prognostico nella progressione di questa patologia.
Resumo:
Lo scopo di questa attività è approfondire le conoscenze sul processo di riempimento a caldo noto come nitro-hot-fill (NHF) utilizzato per contenitori in PET. Il nostro obiettivo è quello di simulare su scala di laboratorio il processo industriale al fine di ottimizzarne i parametri e aumentare la stabilità dei contenitori anche attraverso l’utilizzo di materie prime con caratteristiche migliorate utilizzando formulazioni adatte ai trattamenti a caldo. Il processo consiste nel riempimento della bottiglia ad una temperatura tra gli 80°/85°C, successivo al quale vi è l’iniezione di azoto al fine di evitare l’implosione durante il raffreddamento fino a temperatura ambiente. Questo settore del mercato è in forte crescita, molte bevande infatti hanno la necessità di un contenitore asettico; il processo di NHF ha il vantaggio di utilizzare il calore del prodotto stesso al fine di rendere la bottiglia sterile. Da qui nascono le criticità legate al processo, occorre prendere diversi accorgimenti al fine di rendere processabile in questo modo una bottiglia, infatti l’aumento di pressione interna dovuto all’iniezione di azoto si accompagna una temperatura vicina alla temperatura di transizione vetrosa. La nostra attività di ricerca ha focalizzato la propria attenzione sul design della bottiglia, sul processo di stiro-soffiaggio, sull’influenza dell’umidità assorbita nel PET, sul materiale utilizzato e su altri parametri di processo al fine di produrre contenitori in grado di resistere al riempimento NHF.
Resumo:
L’acqua è uno dei principali fattori per la crescita socio-economica e lo sviluppo del continente africano. Il continente africano dispone di ingenti risorse idriche, ma le complessità naturali caratteristiche di alcune regioni del continente e la frequente assenza di una corretta pianificazione della loro gestione ne riduce ad oggi il potenziale in maniera significativa. L’utilizzo delle risorse idriche in Africa è destinato ad incrementare sensibilmente nel corso dei prossimi decenni, come risultato della crescita demografica e dei fabbisogni nell’agricoltura. Le risorse idriche sotterranee giocano un importante ruolo in tale scenario in quanto molti paesi africani caratterizzati da scarsità d’acqua dispongono di sostanziali riserve idriche sotterranee e l’accesso a tali risorse, ancorché limitate, è largamente diffuso nel continente. Si stima che il totale delle risorse idriche sotterranee sia di 0,66 milioni di km cubi. Le risorse sotterranee sono largamente distribuite: i maggiori volumi sono localizzati nei larghi acquiferi sedimentari nelle regioni del nord Africa. Per molti paesi africani pozzi appropriatamente ubicati sono in grado di sostenere le comunità con l’estrazione manuale mediante pompe con una portata di 0,1-0,3 l/s. Grandi impianti di produzione da acquifero (>5 l/s), che siano adatti per lo sviluppo urbano o produzioni agricole intensive, non sono ancora diffusi e sono limitati ad aree particolari. La disponibilità ed accessibilità delle acque sotterranee in gran parte dell’Africa è favorevole ad uno sviluppo rurale piuttosto che urbano. Il maggiore fattore limitante per una gestione sostenibile delle risorse sotterranee è dato dalla necessità di identificare se le acque sotterranee sono rinnovabili (ed in quale misura) o meno, al fine di programmare le corrette politiche gestionali nel tempo.
Resumo:
La presente tesi ha come obiettivo quello di sviluppare un modello per la gestione ottimizzata delle unità di generazione e di accumulo di una microrete elettrica. La tesi analizza, come caso studio di riferimento, una microrete contenente impianti di generazione da fonti rinnovabili, sistemi di accumulo a batteria (BES:Battery Energy System) e stazioni di ricarica per veicoli elettrici. In particolare le stazioni di ricarica sono a flusso bidirezionale, in grado di fornire servizi di tipo "grid-to-vehicle"(G2V) e "vehicle-to-grid" (V2G). Il modello consente di definire, come sistema di dispacciamento centrale, le potenze che le varie risorse distribuite devono erogare o assorbire nella rete nelle 24 ore successive. Il dispacciamento avviene mediante risoluzione di un problema di minimizzazione dei costi operativi e dell'energia prelevata dalla rete esterna. Il problema è stato formulato tramite l'approccio di programmazione stocastica lineare dove i parametri incerti del modello sono modellizzati tramite processi stocastici. L'implementazione del modello è stata effettuata tramite il software AIMMS, un programma di ottimizzazione che prevede al suo interno delle funzionalità specifiche per la programmazione stocastica
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
La formazione del ghiaccio nelle nubi avviene prevalentemente per nucleazione eterogenea, grazie alla presenza di nuclei di ghiacciamento (Ice Nucleating Particles, INP), ovvero particelle di aerosol (prevalentemente polveri minerali) in grado di favorire la solidificazione di una gocciolina o il passaggio diretto dalla fase vapore alla fase ghiaccio. Recentemente, l'interesse si è esteso anche all'aerosol di tipo biologico (funghi, spore, etc.), in grado di agire come INP a temperature più elevate rispetto all'aerosol minerale. Il lavoro sperimentale di questa tesi, svolto presso il laboratorio del gruppo Nubi e Precipitazioni dell’ISAC-CNR di Bologna, ha avuto come obiettivo lo studio della capacità della cellulosa di agire come INP. Esso si inserisce in un’attività di ricerca internazionale dedicata allo studio degli INP (progetto Ice NUclei research unIT, INUIT, Germania). Il lavoro sperimentale ha riguardato la messa a punto di due diversi sistemi di generazione dell'aerosol di cellulosa, la caratterizzazione dimensionale delle particelle, la loro osservazione al microscopio elettronico e la preparazione dei filtri per le misure di INP. I risultati ottenuti hanno evidenziato che le proprietà nucleanti della cellulosa sono inferiori rispetto alle polveri minerali ma paragonabili ad altri materiali, come la cenere vulcania e l'aerosol marino. Quindi, in aree ricche di vegetazione o dove le polveri minerali non sono abbondanti, la cellulosa potrebbe costituire un importante materiale per la formazione del ghiaccio nelle nubi miste. Misure preliminari hanno evidenziato come le particelle di cellulosa con dimensioni inferiori a 0,5μm risultano meno attive nella nucleazione del ghiaccio rispetto a quelle di dimensioni maggiori. I risultati ottenuti sono stati presentati al Congresso PM2016 (Roma, 17-19 maggio 2016) e saranno presentati in un poster alla prossima European Aerosol Conference (Tours, Francia, 4-6 settembre 2016).
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Il lavoro presentato in questo elaborato tratterà lo sviluppo di un sistema di alerting che consenta di monitorare proattivamente una o più sorgenti dati aziendali, segnalando le eventuali condizioni di irregolarità rilevate; questo verrà incluso all'interno di sistemi già esistenti dedicati all'analisi dei dati e alla pianificazione, ovvero i cosiddetti Decision Support Systems. Un sistema di supporto alle decisioni è in grado di fornire chiare informazioni per tutta la gestione dell'impresa, misurandone le performance e fornendo proiezioni sugli andamenti futuri. Questi sistemi vengono catalogati all'interno del più ampio ambito della Business Intelligence, che sottintende l'insieme di metodologie in grado di trasformare i dati di business in informazioni utili al processo decisionale. L'intero lavoro di tesi è stato svolto durante un periodo di tirocinio svolto presso Iconsulting S.p.A., IT System Integrator bolognese specializzato principalmente nello sviluppo di progetti di Business Intelligence, Enterprise Data Warehouse e Corporate Performance Management. Il software che verrà illustrato in questo elaborato è stato realizzato per essere collocato all'interno di un contesto più ampio, per rispondere ai requisiti di un cliente multinazionale leader nel settore della telefonia mobile e fissa.