1000 resultados para Coordinazione, Spazi di tuple, Sistemi distribuiti, Semantica
Resumo:
Negli ultimi anni si è osservato un crescente sviluppo della ricerca nel campo dei materiali luminescenti per le loro diverse applicazioni reali e potenziali, fra cui l’impiego in dispositivi elettroluminescenti, quali OLEDs (Organic Light-Emitting Diodes) e LECs (Light-Emitting Electrochemical Cells). In modo particolare, si rivolge grande attenzione ai complessi ciclometallati di Ir(III) grazie alle peculiari caratteristiche che li contraddistinguono fra i materiali luminescenti, come l'emissione fosforescente, alte rese quantiche di emissione, lunghi tempi di vita e buona stabilità nei dispositivi. Oltre a tali caratteristiche uno dei principali vantaggi presentati dai complessi di Ir(III) è la possibilità di modulare la lunghezza d'onda di emissione modificando la struttura dei leganti ciclometallanti e ancillari. Considerata la versatilità di questi sistemi e la loro conseguente rilevanza, diverse sono state le strategie applicate per l'ottenimento di complessi di Ir(III) generalmente neutri e cationici; al contrario pochi esempi di complessi di Ir(III) anionici sono attualmente riportati in letteratura. Lo scopo del mio lavoro di tesi è stato quindi quello di sintetizzare tre nuovi complessi anionici luminescenti di Ir(III) con tre diversi leganti ciclometallanti. Il piano di lavoro è stato suddiviso in stadi successivi, partendo dalla sintesi dei tre leganti ciclometallanti, impiegati poi nella preparazione dei dimeri di Ir(III) precursori dei miei complessi; infine facendo reagire questi ultimi con un legante ancillare bisanionico, derivato dal di(1H-tetrazol-5-il)metano, si è giunti all'ottenimento di tre complessi anionici luminescenti di Ir(III). Dopo questa prima parte, il lavoro di tesi è proseguito con la caratterizzazione spettroscopica dei tre complessi anionici e la determinazione delle loro proprietà fotofisiche tramite la registrazione di spettri di assorbimento, di emissione e la determinazione delle rese quantiche di emissione e dei tempi di vita. Infine si è preparato un “soft salt” costituito da un complesso anionico e uno cationico di Ir(III) le cui caratteristiche sono tutt'ora oggetto di studio del gruppo di ricerca presso il quale ho svolto il mio lavoro di tesi.
Resumo:
I carboidrati, come il D-glucosio, sono i principali costituenti della biomasse e potrebbero rappresentare un’alternativa concreta alla chimica tradizionale del petrolio per la produzione dei building-blocks, utili quest’ultimi per lo sviluppo della filiera produttiva della chimica industriale. Dal D-glucosio è possibile ottenere epimeri importanti per la medicina o zuccheri largamente utilizzati in campo alimentare come il D-fruttosio tramite isomerizzazione strutturale del D-glucosio. Attualmente, la maggior parte dei metodi di sintesi di questa molecole prevedono l’utilizzo enzimi, o la catalisi omogenea con impiego di grandi quantità di basi e acidi minerali dannosi per l’ambiente. Lo scopo di questo lavoro è stato lo studio di innovativi catalizzatori eterogenei capaci operare in soluzione acquosa la conversione acido catalizzata del D-glucosio in prodotti di epimerizzazione e isomerizzazione strutturale. I catalizzatori dei nostri test sono stati caratterizzati tramite tecniche BET, ATR-IR, DRUv-Vis e XRD. Lo studio, quindi, è stato focalizzato sulle valutazioni delle prestazioni catalitiche di questi sistemi e sull’individuazione, tramite caratterizzazione strumentale, degli ioni costituenti questi solidi responsabili delle alte selettività nelle reazioni di riarrangiamento strutturale del D-glucosio. Gli studi condotti hanno portato alla conclusione che, grazie all’utilizzo di questi sistemi inorganici è possibile ottenere con alte selettività prodotti di riarrangiamento strutturale del D-glucosio, evitando al contempo la degradazione del substrato che in genere accompagna queste reazioni in condizioni di catalisi acida. Ulteriori studi riguardanti questi catalizzatori apriranno con buone probabilità la strada allo sviluppo di un nuovo processo industriale per la sintesi di questi zuccheri derivati, rendendo possibile una via produttiva sostenibile da un punto di vista economico che ambientale.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.
Resumo:
La tesi analizza lo stack di comunicazione Bluetooth e le possibili estensioni di TuCSoN per permettere il suo utilizzo. Come risultato di questo lavoro, sono state realizzate delle librerie software che permettono lo scambio di messaggi tra TuCSoN su Android e dispositivi Bluetooth.
Resumo:
Questo lavoro di tesi si propone di realizzare un sistema in grado non solo di gestire la similarità tra media di stesso tipo, in modo tale da essere al pari per potenzialità in catalogazione e ricerca dei sistemi esistenti, ma di introdurre anche il concetto di similarità tra documenti, i quali contengono media di diverso tipo. Anche se esistono già DBMS in grado di gestire tipi di media complessi, nessuno ha un modello in grado di gestire la compresenza di più tipi di dato efficientemente. Per realizzare un sistema multimediale che sia in grado di gestire non solo la similarità tra media compatibili per tipo ma in generale la ricerca tra documenti si è deciso di utilizzare sistemi per media specifici già esistenti e di integrarli in modo da farli cooperare. A tale proposito si è deciso inizialmente di creare un sistema in grado di gestire documenti che possano contenere inizialmente parti testuali, immagini, video e serie temporali. E’ chiaro intuire come le differenze tra i singoli sistemi (e tra le singole tipologie di dati) rendano quasi impossibile il confronto tra media di tipo diverso esaminandone solamente il contenuto. Per questo un sistema multimediale come quello proposto non potrà effettuare ricerca per contenuto tra media differenti (a parte tra immagini e video in cui può essere possibile confrontare l’immagine con gli screenshot che compongono un video) ma si baserà principalmente sul confronto semantico tra media di tipo diverso e lo combinerà invece con ricerche per metadati e contenuto tra media dello stesso tipo. In questa tesi verranno analizzate le tecnologie utilizzate, le modifiche apportate ai framework esistenti e le novità introdotte per realizzare il sistema generale e in seguito verrà proposta la realizzazione due applicazioni su casi reali per dimostrare l’efficacia di tale sistema.
Resumo:
L’obiettivo del progetto di tesi svolto è quello di realizzare un servizio di livello middleware dedicato ai dispositivi mobili che sia in grado di fornire il supporto per l’offloading di codice verso una infrastruttura cloud. In particolare il progetto si concentra sulla migrazione di codice verso macchine virtuali dedicate al singolo utente. Il sistema operativo delle VMs è lo stesso utilizzato dal device mobile. Come i precedenti lavori sul computation offloading, il progetto di tesi deve garantire migliori performance in termini di tempo di esecuzione e utilizzo della batteria del dispositivo. In particolare l’obiettivo più ampio è quello di adattare il principio di computation offloading a un contesto di sistemi distribuiti mobili, migliorando non solo le performance del singolo device, ma l’esecuzione stessa dell’applicazione distribuita. Questo viene fatto tramite una gestione dinamica delle decisioni di offloading basata, non solo, sullo stato del device, ma anche sulla volontà e/o sullo stato degli altri utenti appartenenti allo stesso gruppo. Per esempio, un primo utente potrebbe influenzare le decisioni degli altri membri del gruppo specificando una determinata richiesta, come alta qualità delle informazioni, risposta rapida o basata su altre informazioni di alto livello. Il sistema fornisce ai programmatori un semplice strumento di definizione per poter creare nuove policy personalizzate e, quindi, specificare nuove regole di offloading. Per rendere il progetto accessibile ad un più ampio numero di sviluppatori gli strumenti forniti sono semplici e non richiedono specifiche conoscenze sulla tecnologia. Il sistema è stato poi testato per verificare le sue performance in termini di mecchanismi di offloading semplici. Successivamente, esso è stato anche sottoposto a dei test per verificare che la selezione di differenti policy, definite dal programmatore, portasse realmente a una ottimizzazione del parametro designato.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
Relazione completa delle scelte progettuali e implementative di un applicativo ad agenti sviluppato nel contesto Smart Home. Essa contiene un veloce riassunto dello scenario e dello stato attuale dell'applicazione, unitamente a un'introduzione sul middeware su cui si appoggia l'applicativo (TuCSoN). Segue quindi un'analisi delle scelte di modeling delle entita da gestire, le metodologie di supporto alla persistenza e un'ampia descrizione su come gli agenti comunichino tra loro e attraverso quali mezzi (centri di tuple). Quindi viene analizzata l'implementazione partendo dalle scelte implementative sino ad esaminare cosa avviene nel programma a seguito dell'interazione con l'utente. Infine le conclusioni a cui si e giunti e due appendici sulla terminologia e le classi presenti nel prototipo attuale.
Resumo:
Seguendo le tracce della metologia proposta da Dilthey fino a Heidegger riguardo il concetto di Erlebnis (esperienza vissuta), si rintracciano i rapporti tra vita e opera nella produzione poetica di Giorgio Bassani che si prolunga dal 1939 al 1982. La ricerca evidenzia le conessioni della dinamica tra biografia e produzione artistica e il conseguente processo d’interiorizzazione psicologica che il percorso autobiografico dell’ autore rivela nella sua poesia. L’ impatto sul piano psicologico che lo spazio autorappresentato ha nello stesso autore, diventa nei testi proposti spazi di sperienze interiori [Fremont 1976]. Le proposte metodologiche sopra esposte possono essere un utile riferimento per un’analisi critica della poesia bassaniana, che può essere letta o come esperienza autonoma, con una sua originalità di stile e una sua ampiezza d’occasioni, o come laboratorio di temi e nodi che avranno uno sviluppo narrativo, una volta scorporati dalla matrice originaria e amplificati nella loro carica dinamica di proiezioni e figurazioni.
Resumo:
Il sito archeologico di Arslantepe (provincia di Malatya, Turchia) rappresenta un caso di studio di potenziale interesse per l’interazione tra i mutamenti climatici e la storia della civiltà. Il sito, occupato quasi ininterrottamente per un periodo di tempo relativamente lungo (6250-2700 BP), ha fornito una grande quantità di reperti ossei, distribuiti lungo una stratigrafia archeologica relativamente dettagliata e supportata da datazioni al radiocarbonio. Tali reperti, indagati con le tecniche della geochimica degli isotopi stabili, possono costituire degli efficaci proxy paleoclimatici. In questo lavoro è stata studiata la composizione isotopica di 507 campioni di resti ossei umani e animali (prevalentemente pecore, capre, buoi). I rapporti isotopici studiati sono relativi a ossigeno (δ18Ocarb, δ18Oph), carbonio (δ13Ccarb, δ13Ccoll) e azoto (δ15N), misurati nella frazione minerale e organica dell’osso; la variabilità nel tempo di questi parametri, principalmente legati alla paleonutrizione, può essere correlata, direttamente o indirettamente, a cambiamenti dei parametri ambientali quali temperatura e umidità atmosferiche. I risultati indicano che la dieta degli animali selvatici e domestici di Arslantepe era quasi esclusivamente a base di piante a ciclo fotosintetico C3, generalmente tipiche di climi umidi o temperati. La presenza di piante C4, più tipiche di condizioni aride, sembrerebbe essere riconoscibile solamente nella dieta del bue (Bos taurus). La dieta umana era esclusivamente terrestre a base di cereali e carne di caprini con una percentuale esigua o del tutto assente di carne di maiale e bue. Dal punto di vista paleoclimatico il principale risultato del lavoro consiste nel riconoscimento della preservazione di un segnale paleoclimatico a lungo termine (δ18OW, composizione isotopica dell’ossigeno dell’acqua ingerita), che identifica un massimo relativo di umidità attorno al 5000 BP e che si correla, per andamento e ampiezza della variazione a record paleoclimatici di sedimenti lacustri collocati in regioni adiacenti all’area di studio. Sulla base del confronto dei tre segnali isotopici sono state inoltre riconosciute due anomalie climatiche siccitose a breve termine, apparentemente riferibili a due episodi di aridità a scala regionale documentati in letteratura.
Resumo:
Il concetto di funzione è tra i più rilevanti, ma anche tra i più controversi concetti matematici. In questo lavoro di tesi si è esaminato questo concetto a partire dalle sue origini fino ad arrivare alla definizione bourbakista, che è quella insegnata a tutti gli studenti a partire dalla scuola secondaria fino ad arrivare all'università. Successivamente si è analizzato in che modo questo delicato concetto viene presentato agli studenti delle scuole secondarie di secondo grado, osservando come le recenti Indicazioni Nazionali e Linee Guida danno suggerimenti per affrontare questo argomento, anche esaminando alcuni libri di testo. Infine si è descritto come il concetto di funzione abbia preso, in tempi relativamente recenti, un respiro più ampio dando luogo all'analisi funzionale, laddove le funzioni non sono più viste come corrispondenza punto a punto ma come oggetti che vengono osservati globalmente. Si considereranno infatti nuovi spazi i cui elementi sono funzioni.
Resumo:
In questa tesi cercherò di analizzare le funzioni di Sobolev su R}^{n}, seguendo le trattazioni Measure Theory and Fine Properties of Functions di L.C. Evans e R.F.Gariepy e l'elaborato Functional Analysis, Sobolev Spaces and Partial Differential Equations di H. Brezis. Le funzioni di Sobolev si caratterizzano per essere funzioni con le derivate prime deboli appartenenti a qualche spazio L^{p}. I vari spazi di Sobolev hanno buone proprietà di completezza e compattezza e conseguentemente sono spesso i giusti spazi per le applicazioni di analisi funzionale. Ora, come vedremo, per definizione, l'integrazione per parti è valida per le funzioni di Sobolev. È, invece, meno ovvio che altre regole di calcolo siano allo stesso modo valide. Così, ho inteso chiarire questa questione di carattere generale, con particolare attenzione alle proprietà puntuali delle funzioni di Sobolev. Abbiamo suddiviso il lavoro svolto in cinque capitoli. Il capitolo 1 contiene le definizioni di base necessarie per la trattazione svolta; nel secondo capitolo sono stati derivati vari modi di approssimazione delle funzioni di Sobolev con funzioni lisce e sono state fornite alcune regole di calcolo per tali funzioni. Il capitolo 3 darà un' interpretazione dei valori al bordo delle funzioni di Sobolev utilizzando l'operatore Traccia, mentre il capitolo 4 discute l' estensione su tutto R^{n} di tali funzioni. Proveremo infine le principali disuguaglianze di Sobolev nel Capitolo 5.