958 resultados para dimensione insieme parzialmente ordinato etichettamento doppio diagramma di Hasse
Resumo:
La tesi si prefigge l'obbiettivo di offrire una ricostruzione logico sistematica della disciplina giuridica che regola i trasporti pubblici locali in ambito regionale, statale e comunitario, affrontando le principali questioni interpretative e di coordinamento che esse pongono. Nella primo capitolo, viene analizzato l'evoluzione storica della normativa nazionale che regola il trasporto pubblico locale, soffermandosi soprattutto sulla riforma del trasporto pubblico locale introdotte dal d.lgs. 422/1997. Particolare attenzione è stata posta agli aspetti di programmazione e finanziamento nonché alle modalità di gestione del trasporto pubblico locale, in quanto il quadro normativo applicabile è caratterizzato da un’estrema complessità dovuta ai numerosi interventi legislativi. Nel secondo capitolo viene esaminato l'evoluzione dell'intervento comunitario in materi di trasporto pubblico locale, partendo dal (CE) n. 1191/69 che si limitava a disciplinare gli aiuti di Stato, fino alla normativa quadro per il settore (Regolamento (CE) n. 1370/2007). L'obbiettivo è quello di verificare se le scelte del legislatore italiano, per quanto concerne le modalità di gestione del trasporto pubblico locale possano dirsi coerenti con le scelte a livello comunitario previste dal Regolamento (CE) n. 1370/2007. Viene inoltre affronta la questione dell'articolazione della potestà normativa e amministrativa del settore dei trasporti pubblici locali nelle disposizioni del Titolo V della Costituzione. Lo studio si sofferma soprattutto sulla giurisprudenza della Corte costituzionale per tracciare una chiara individuazione del riparto delle competenze tra Stato e Regioni in materia. Infine nell'ultima parte, esamina le diverse problematiche interpretative e applicative della normativa che disciplina il settore del TPL, dovute all'azzeramento della normativa generale dei servizi pubblici locali di rilevanza economica in seguito al referendum abrogativo del 12 e 13 giugno 2011, nonché della illegittimità costituzionale della normativa contenuta nell'art 4 del d.l. n. 138/2011, ad opera della sentenza della Corte costituzionale n. 199/2012.
Resumo:
Questa ricerca indaga come il “caso Ustica” si è articolato nell’opinione pubblica italiana negli anni compresi tra il 1980 e il 1992. Con l'espressione “caso Ustica” ci si riferisce al problema politico determinato dalle vicende legate all’abbattimento dell’aereo civile DC-9 dell’Itavia, avvenuto il 27 giugno 1980 in circostanze che, come noto, furono chiarite solamente a distanza di molti anni dal fatto. L’analisi intende cogliere le specificità del processo che ha portato la vicenda di Ustica ad acquisire rilevanza politica nell’ambito della sfera pubblica italiana, in particolare prendendo in considerazione il ruolo svolto dall’opinione pubblica in un decennio, quale quello degli anni ’80 e dei primi anni ’90 italiani, caratterizzato da una nuova centralità dei media rispetto alla sfera politica. Attraverso l’analisi di un’ampia selezione di fonti a stampa (circa 1500 articoli dei principali quotidiani italiani e circa 700 articoli tratti dagli organi dei partiti politici italiani) si sono pertanto messe in luce le dinamiche mediatiche e politiche che hanno portato alla tematizzazione di una vicenda che era rimasta fino al 1986 totalmente assente dall’agenda politica nazionale. L’analisi delle fonti giudiziarie ha permesso inoltre di verificare come la politicizzazione del caso Ustica, costruita intorno alla tensione opacità/trasparenza del potere politico e all’efficace quanto banalizzante paradigma delle “stragi di Stato”, sia risultata funzionale al raggiungimento, dopo il 1990, dei primi elementi di verità sulla tragedia e all’ampiamento del caso a una dimensione internazionale.
Resumo:
La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.
Resumo:
Ogni anno in Europa milioni di tonnellate di cibo vengono gettate via. Una stima pubblicata dalla Commissione europea afferma che, nei 27 Stati membri, 89 milioni di tonnellate di cibo, o di 179 kg pro capite, vengono scartati. Lo spreco si verifica lungo tutta la catena di agro alimentare; la riduzione dei rifiuti alimentari è diventata una delle priorità dell'agenda europea. La ricerca si concentra su un caso studio, Last Minute Market, un progetto di recupero di sprechi alimentari. L'impatto di questo progetto dal punto di vista economico e ambientale è già stato calcolato. Quello che verrà analizzato è l'impatto di questa iniziativa sulla comunità e in particolare sul capitale sociale, definito come "l'insieme di norme e reti che consentono l'azione collettiva". Obiettivo del presente lavoro è, quindi, quello di eseguire, attraverso la somministrazione di un questionario a diversi stakeholder del progetto, un’analisi confrontabile con quella del 2009 e di verificare a distanza di cinque anni, se l'iniziativa Last Minute Market abbia prodotto una crescita di capitale sociale nella comunità interessata da questa iniziativa. Per riassumere l’influenza del progetto sul capitale sociale in un indice sintetico, viene calcolato quello che verrà chiamato indice di "affidabilità del progetto" (definito in statistica, la "capacità di un prodotto, un sistema o un servizio di fornire le prestazioni richieste, per un certo periodo di tempo in condizioni predeterminate").
Resumo:
La Fusariosi della spiga (FDS) è una fitopatia diffusa a livello mondiale che colpisce le colture cerealicole, tra cui il frumento duro, ed è in grado di causare gravi danni di tipo qualitativo ed economico. Le specie fungine responsabili appartengono al genere Fusarium, tra cui F. graminearum, F. culmorum e più recentemente F. poae. La conseguenza più rilevante riguarda la contaminazione della granella da micotossine, molecole prodotte dai miceti, considerate dalla comunità scientifica ad alto rischio per la salute dell’uomo e animali. L’eziologia è molto complessa, dal momento che su una stessa spiga di frumento possono coesistere più specie fungine che contribuiscono ad influenzare i quantitativi di micotossine prodotte. Lo scopo della ricerca è incentrato sulla caratterizzazione di ceppi di F. poae, in termini di potenziale patogeno e aggressività. Tramite l’allestimento di un saggio di inoculazione in vitro “Petri-dish” è stato possibile attribuire un indice di aggressività a ciascun isolato fungino, basato su parametri quali AUHPC e AUDPC standard, insieme ad altre variabili come la riduzione della lunghezza del coleottile e del tasso di germinazione. Il saggio è stato esteso anche a F. culmorum, per valutare la riproducibilità del test su altre specie fungine. Il test in vitro offre diversi vantaggi, tra cui affidabilità e rapidità di esecuzione ed è quindi adatto allo screening di ceppi patogeni da utilizzare in successive sperimentazioni. Gli stessi ceppi di F. poae, provenienti da una prova di inoculazione artificiale in serra su piante di frumento duro, sono stati caratterizzati dal punto di vista bio-molecolare. Poichè lo studio della fusariosi della spiga richiede la determinazione quantitativa della biomassa dei patogeni nei tessuti della pianta-ospite, anche in assenza di sintomi, il protocollo di Real-Time PCR con chimica SYBR® Green I qui sviluppato, ha dimostrato essere un buon compromesso tra attendibilità, rapidità e costi complessivi della metodica.
Resumo:
Le pagine che seguono sono divise in tre capitoli: il primo, teorico, tratta della traduzione audiovisiva nel complesso, accenna alle caratteristiche principali del sottotitolaggio e alla sua storia. Il capitolo spiega inoltre la divisione a livello europeo tra subtitling e dubbing countries, concentrandosi poi sullo sviluppo del doppiaggio in Italia. Il secondo capitolo comprende una descrizione del programma televisivo britannico parzialmente sottotitolato, Supersise vs Superskinny, Grassi contro Magri in italiano, così come le ragioni che mi hanno portata a scegliere il programma. L’ ultimo capitolo contiene la proposta di sottotitolaggio, esposta in una tabella. Ho parlato dell’ esperienza di sottotitolazione del programma, delle innumerevoli, così come inizialmente inaspettate, difficoltà incontrate, e ho elencato i passaggi da me ritenuti più importanti o particolari, con spiegazione e motivazione delle mie scelte traduttive.
Resumo:
Abstract Questo elaborato consta della traduzione di un libro di ricette scritto in lingua tedesca, il cui titolo originale è “Die besten Kochrezepte aus Omas Zeiten”. Questa tesina propone una traduzione delle varie ricette, onde offrire uno sguardo alla cucina tedesca antica e casalinga, nonché alle differenze storiche, linguistiche, culturali che queste hanno con i piatti italiani e nostrani. A questo scopo, infatti, è stato fornito un identikit storico-culturale sull'origine e le curiosità di ogni piatto, aggiungendo nella maggior parte dei casi anche un commento alla traduzione, alla lingua e al lessico utilizzato. Questo lavoro è incentrato sull'immagine “sociale” e culturale della “Nonna” tedesca, o più in generale della massaia, abile preparatrice di deliziosi manicaretti. Ogni piatto è ordinato secondo una sezione, che scandisce l'ordine delle pietanze e le suddivide nelle varie categorie, facilitandone il riconoscimento e il confronto con piatti italiani.
Resumo:
L’obiettivo del lavoro di tesi è quello di studiare l’integrazione del grafene con i processi tecnologici propri della tecnologia del silicio, per la realizzazione di dispositivi innovativi per la misura delle proprietà termiche e termoelettriche del grafene che sono tra le meno studiate ad oggi. L’attività sperimentale svolta, ha riguardato l’intero processo di produzione, processing ed integrazione tecnologica del grafene. Da una parte è stato messo a punto un processo ottimizzato, partendo da una approfondita ricerca bibliografica, per il trasferimento delle membrane dai substrati di crescita, in rame, a quelli di destinazione, SiO2 e Si3N4, mantenendo la completa compatibilità con i processi della microelettronica del silicio in particolare per quanto riguarda l’eliminazione dei residui metallici dalla sintesi. Dall’altra è stata sviluppata una procedura di patterning micrometrico del grafene, affidabile e riproducibile, e, soprattutto, compatibile con la microelettronica del silicio. Le membrane, cresciute tramite deposizione da fase vapore (Chemical Vapor Deposition), sono state caratterizzate tramite la microscopia elettronica, a scansione e in trasmissione, la microscopia ottica, spettroscopia Raman e microscopia a forza atomica, tecniche che sono state utilizzate per caratterizzare i campioni durante l'intero processo di patterning. Il processo di etching del grafene in ossigeno, realizzato con il plasma cleaner, strumento che nasce per la pulizia di campioni per microscopia elettronica, è stato messo a punto il attraverso una estesa attività di test sia dei parametri di funzionamento dello strumento che del fotoresist da utilizzare. La procedura di patterning micrometrico vera e propria, ha comportato di affrontare diverse classi di problemi, dalla rimozione del fotoresist con soluzioni diverse (soluzione di sviluppo dedicata e/o acetone) alla rimozione dei residui presenti sulle membrane di grafene anche a valle del patterning stesso. La rimozione dei residui tramite acido cloridrico, insieme ad una procedura di annealing a 400°C in aria per la rimozione dei residui del fotoresist polimerico che erano presenti a valle dell’etching in ossigeno, ha permesso di ottenere un patterning del grafene ben definito su scala micrometrica e una ridottissima presenza di residui. Le procedure ottimizzate di trasferimento e di patterning sono il principale avanzamento rispetto allo stato dell’arte. Le metodiche messe a punto in questo lavoro, consentiranno di integrare il grafene direttamente nel processo di micro-fabbricazione di dispositivi per misure termiche e termoelettriche, per i quali quali sono in realizzazione le maschere di processo che rappresentando la naturale conclusione del lavoro di tesi.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
Il modello di Bondi rappresenta il modello di accrescimento più semplice, in quanto studia l'accrescimento su un BH isolato immerso in una distribuzione di gas infinita. In questa semplice trattazione puramente idrodinamica vengono trascurati molti aspetti importanti, come ad esempio il momento angolare, il campo magnetico, gli effetti relativistici, ecc. L'obiettivo di questa Tesi consiste nell'affinare tale modello aggiungendo alcune nuove componenti. In particolare, vogliamo studiare come queste nuove componenti possano influire sul tasso di accrescimento della materia. Dopo una Introduzione (Capitolo 1), nel Capitolo 2 viene presentato il modello di Bondi originale, con lo scopo di ricostruire il procedimento matematico che porta alla soluzione e di verificare il funzionamento del codice numerico scritto per la soluzione dell'equazione di Bondi finale. Tuttavia, il modello di accrescimento sferico stazionario tratta il potenziale gravitazionale di un oggetto puntiforme isolato, mentre in questo lavoro di Tesi si vogliono considerare i BH che si trovano al centro delle galassie. Pertanto, nel Capitolo 3 è stata rivisitata la trattazione matematica del problema di Bondi aggiungendo alle equazioni il potenziale gravitazionale prodotto da una galassia con profilo di densità descritto dal modello di Hernquist. D'altronde, ci si aspetta che l'energia potenziale gravitazionale liberata nell'accrescimento, almeno parzialmente, venga convertita in radiazione. In regime otticamente sottile, nell'interazione tra la radiazione e la materia, domina l'electron scattering, il che permette di estendere in maniera rigorosa la trattazione matematica del problema di Bondi prendendo in considerazione gli effetti dovuti alla pressione di radiazione. Infatti, in un sistema a simmetria sferica la forza esercitata dalla pressione di radiazione segue l'andamento "1/r^2", il che comporta una riduzione della forza gravitazionale della stessa quantità per tutti i raggi. Tale argomento rappresenta l'oggetto di studio del Capitolo 4. L'idea originale alla base di questo lavoro di Tesi, che consiste nell'unire i due modelli sopra descritti (ossia il modello di Bondi con la galassia e il modello di Bondi con feedback radiativo) in un unico modello, è stata sviluppata nel Capitolo 5. Utilizzando questo nuovo modello abbiamo cercato di determinare delle "ricette" per la stima del tasso di accrescimento, da utilizzare nell'analisi dei dati osservativi oppure da considerare nell'ambito delle simulazioni numeriche. Infine, nel Capitolo 6 abbiamo valutato alcune applicazioni del modello sviluppato: come una possibile soluzione al problema di sottoluminosità dei SMBH al centro di alcune galassie dell'universo locale; per la stima della massa del SMBH imponendo la condizione di equilibrio idrostatico; un possibile impiego dei risultati nell'ambito dei modelli semi-analitici di coevoluzione di galassie e SMBH al centro di esse.
Resumo:
L'obbiettivo di questa tesi è la produzione del prototipo di un sistema che sia in grado di ottenere dati da un insieme di sensori per poterli poi trasmettere all’utente, in modo che esso sia maggiormente cosciente del mondo che lo circonda. Affronteremo la sfida in uno scenario medico / di soccorso, dove un operatore si avvicinerà ad un gruppo di pazienti con l’intenzione di ottenere i parametri vitali di uno di essi. All'interno del documento saranno descritte le tecnologie sfruttate per la realizzazione del prototipo: Bluetooth e Bluetooth Smart, il sistema operativo Linux in esecuzione su un Raspberry Pi dotato di sensori, il sistema operativo Android in esecuzione su smartphone o tablet e iBeacon. Verranno poi analizzati i requisiti del sistema da realizzare. Infine verrà descritta l'implementazione utilizzata nel prototipo e analizzato il suo comportamento.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Il concetto di cella a eterogiunzione in silicio ha portato allo sviluppo di dispositivi in grado di convertire oltre il 25% dello spettro solare. Il raggiungimento di alte efficienze di conversione è dovuto alla ricerca nel campo dei vari strati a base di silicio cristallino, amorfo e nanocristallino impiegati per formare le giunzioni. In particolare, lo studio e l’ottimizzazione dello strato di emettitore in silicio amorfo o nanocristallino insieme all’inserimento di uno strato amorfo intrinseco passivante, ha permesso la realizzazione di celle con alte tensioni di circuito aperto. Questi materiali contengono tuttavia dei difetti legati alla struttura amorfa, che compromettono le prestazioni dei dispositivi abbassandone la corrente di cortocircuito. Una possibile soluzione al problema può essere ottenuta formando composti che incorporano elementi come azoto e ossigeno e aumentando il grado di cristallinità del materiale con un processo di annealing. In questa tesi viene studiato l’energy gap di campioni di Silicon Oxynitride (SiOxNy:H) in funzione delle diverse condizioni di crescita e di annealing attraverso il programma di simulazione spettroscopica Optical.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.