142 resultados para modificare, costruire, rigenerare
Resumo:
I dispositivi mobili, dagli smartphone ai tablet, sono entrati a far parte della nostra quotidianità. Controllando l’infrastruttura delle comunicazioni, rispetto a qualsiasi altro settore, si ha un maggiore accesso a informazioni relative alla geo-localizzazione degli utenti e alle loro interazioni. Questa grande mole di informazioni può aiutare a costruire città intelligenti e sostenibili, che significa modernizzare ed innovare le infrastrutture, migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese e istituzioni. Vodafone offre soluzioni concrete nel campo dell’info-mobilità consentendo la trasformazione delle nostre città in Smart City. Obiettivo della tesi e del progetto Proactive è cercare di sviluppare strumenti che, a partire da dati provenienti dalla rete mobile Vodafone, consentano di ricavare e di rappresentare su cartografia dati indicanti la presenza dei cittadini in determinati punti d’interesse, il profilo di traffico di determinati segmenti viari e le matrici origine/destinazione. Per fare questo verranno prima raccolti e filtrati i dati della città di Milano e della regione Lombardia provenienti dalla rete mobile Vodafone per poi, in un secondo momento, sviluppare degli algoritmi e delle procedure in PL/SQL che siano in grado di ricevere questo tipo di dato, di analizzarlo ed elaborarlo restituendo i risultati prestabiliti. Questi risultati saranno poi rappresentati su cartografia grazie a QGis e grazie ad una Dashboard aziendale interna di Vodafone. Lo sviluppo delle procedure e la rappresentazione cartografica dei risultati verranno eseguite in ambiente di Test e se i risultati soddisferanno i requisiti di progetto verrà effettuato il porting in ambiente di produzione. Grazie a questo tipo di soluzioni, che forniscono dati in modalità anonima e aggregata in ottemperanza alle normative di privacy, le aziende di trasporto pubblico, ad esempio, potranno essere in grado di gestire il traffico in modo più efficiente.
Resumo:
La presente tesi descrive la messa a punto del modello geotecnico del sottosuolo di una zona dell’Emilia-Romagna che comprende i Comuni di Cesenatico, Gatteo, San Mauro Pascoli, Savignano sul Rubicone e Bellaria-Igea Marina. Il modello si basa principalmente sull'interpretazione delle misure da prove penetrometriche statiche con piezocono e dei sondaggi, unitamente ad un più limitato numero di prove di laboratorio. Nella prima parte della tesi si descrive la geologia dell'area e si illustra il database sperimentale disponibile. Nella seconda parte sono invece analizzate nel dettaglio le prove ai fini della individuazione delle unità stratigrafiche presenti e della successiva caratterizzazione meccanica delle stesse. Il modello è stato costruito in diverse fasi. Nella prima fase sono state elaborate le singole prove penetrometriche: utilizzando approcci interpretativi noti, per lo più di tipo empirico, si è proceduto a classificare i terreni attraversati, sono state preliminarmente individuate alcune le unità stratigrafiche presenti e ad esse sono stati assegnati valori rappresentativi dei parametri meccanici di interesse. Successivamente si è proceduto ad una sintesi delle informazioni e dei risultati conseguiti per le singole verticali di analisi, facendo riferimento ad un certo numero di sezioni longitudinali e trasversali ritenute più significative. In questo modo è stato possibile costruire un modello geotecnico alla scala territoriale, con l'obiettivo non solo di fornire uno strumento utile in una fase preliminare della progettazione geotecnica, ma anche di indirizzare il progettista nell’ottimizzazione delle prove da programmare e nella scelta delle procedure interpretative più idonee per la stima dei parametri meccanici.
Resumo:
In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.
Resumo:
Il framework in oggetto, è un ambiente ideato con lo scopo di applicare tecniche di Machine Learning (in particolare le Random Forest) alle funzionalità dell'algoritmo di stereo matching SGM (Semi Global Matching), al fine di incrementarne l'accuratezza in versione standard. Scopo della presente tesi è quello di modificare alcune impostazioni di tale framework rendendolo un ambiente che meglio si adatti alla direzionalità delle scanline (introducendo finestre di supporto rettangolari e ortogonali e il training di foreste separate in base alla singola scanline) e ampliarne le funzionalità tramite l'aggiunta di alcune nuove feature, quali la distanza dal più vicino edge direzionale e la distintività calcolate sulle immagini Left della stereo pair e gli edge direzionali sulle mappe di disparità. Il fine ultimo sarà quello di eseguire svariati test sui dataset Middlebury 2014 e KITTI e raccogliere dati che descrivano l'andamento in positivo o negativo delle modifiche effettuate.
Resumo:
L’Image Labeling è una tecnica che si occupa di assegnare ad ogni pixel di un’immagine un valore, chiamato label (etichetta), in base a determinate caratteristiche dei punti vicini. Lo scopo del labeling è di semplificare e/o modificare la rappresentazione delle immagini al fine di ottenere qualcosa di più significativo e facile da analizzare.
Resumo:
.NET Compiler Platform è un compilatore per i linguaggi C# e Visual Basic realizzato da Microsoft. L’innovazione apportata da tale strumento è l’introduzione di API che permettono di accedere al compilatore; in particolare, è possibile accedere alle strutture dati utilizzate al suo interno, quali simboli o AST, e controllare e/o modificare il processo di compilazione. Una parte di questo progetto, chiamato anche progetto Roslyn, è focalizzata sull’introduzione dello scripting per il linguaggio C#. In questa trattazione si è interessati a sperimentare le possibilità offerte da tale strumento nel campo dell’esecuzione dinamica di frammenti di codice. Gli obiettivi imposti si collocano nell’ambito della re-ingegnerizzazione e dello sviluppo di software. Tali obiettivi sono la re-implementazione dei filtri di selezione contenuti nel framework Phoenix, utilizzando le API di Roslyn per migliorarne le prestazioni, e la progettazione di un componente che realizzi una console per lo scripting C# dotata della possibilità di riferire dinamicamente librerie. Le API di compilazione si rivelano essere non propriamente adatte all’esecuzione immediata di frammenti di codice, nonostante ciò, è possibile, appoggiandosi alla reflection, utilizzarle per giungere a questo risultato. Lo scripting, invece, si rivela uno strumento dalle grandi potenzialità nel suddetto ambito.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^157Gd e ^155Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n_TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6 D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.
Resumo:
In questa tesi si è studiato uno dei principali processi nelle stelle responsabili della nucleosintesi degli elementi pesanti dopo il 56Fe, il processo-s. In particolare sono state illustrate le sorgenti di neutroni che alimentano questo processo e si è analizzata la reazione 22Ne (α,n) 25Mg. Per costruire un valido modello matematico di questo processo è necessario conoscere in maniera accurata il reaction rate di questa reazione. Conseguentemente è necessario conoscere la sezione d'urto di tale reazione in maniera molto accurata. Sono stati condotti diversi esperimenti nel tentativo di valutare la sezione d'urto per via diretta, facendo collidere un fascio di particelle α su un campione di 22Ne. Queste rilevazioni hanno dato esiti non soddisfacenti nell'intervallo di energie riguardanti il processo-s, in quanto, a causa di disturbi dovuti al fondo di raggi cosmici e alla barriera Coulombiana, non è stato possibile osservare risonanze per valori di energie delle particelle α minori di (832± 2) keV. Per colmare la mancanza di dati sperimentali si è deciso di studiare gli stati eccitati del nucleo composto 26Mg tramite la reazione inversa 25Mg+n alle facility n_TOF, situata al CERN, e GELINA al IRMM. Le misure effettuate hanno mostrato diverse risonanze al di sotto di (832±2) keV, compatibili con le spin-parità di 22Ne e α. In seguito è stato stimato il loro contributo al reaction rate e i risultati hanno mostrato che per temperature tipiche di stelle massive il contributo di queste risonanze è trascurabile ma risulta di grande rilevanza alle temperature tipiche delle stelle appartenenti al ramo asintotico delle giganti (AGB).
Resumo:
Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.
Resumo:
In questo studio sono stati analizzati 11 campioni provenienti dalla zona vulcanica dell’arco Eoliano, gentilmente concessi da ISMAR-CNR Bologna. Lo scopo del lavoro è stato quello di ricercare arricchimenti di alcuni elementi critici, di grande importanza economica e a rischio di approvvigionamento. Lo scopo principale è verificare se la zona può contenere possibili risorse minerarie. La composizione degli elementi maggiori e in traccia dei campioni è stata ottenuta tramite XRF. I campioni analizzati, sono stati aggregati ad altri campioni del Tirreno meridionale (oggetto di altre tesi), ottenendo un database di 71 campioni. Questo set esteso di dati è stato utilizzato per costruire grafici composizionali e sono state evidenziate possibili relazioni tra gli elementi maggiori e una selezione di elementi in traccia. Dai grafici, è risultato che la maggior parte degli elementi in traccia presenta una relazione positiva con Si, Ti, Al, Fe e K, ad indicare che gli apporti detritici continentali costituiscono un fattore di arricchimento di elementi critici. Tutti gli elementi hanno una correlazione negativa con il Ca, indicando che carbonati o sedimenti ricchi in Ca non costituiscono un target per la ricerca di elementi critici. Le concentrazioni sono state confrontate con un valore di cut-off per giacimenti impoveriti. Dal confronto, l’unico elemento la cui soglia di cut-off viene superata in tutti i campioni, è il manganese (Mn). Elementi come ferro (Fe), uranio (U), vanadio (V) e scandio (Sc), presentano picchi di concentrazione in alcuni campioni, la cui popolazione è limitata a poco più di due o tre elementi provenienti dalla zona del Bacino di Paola. Pertanto non sono da considerare una possibile risorsa e possiamo quindi concludere che il Mn costituisce l’unica risorsa mineraria “valida” nella zona.
Resumo:
Effettuando un’analisi della condizione attuale del parco edilizio che costituisce le nostre città e periferie, ciò che si può rilevare è che questo, allo stato attuale, risulta in condizioni di grave degrado tecnologico, energetico, sociale ed architettonico. Diviene pertanto necessario intervenire su questa ampia porzione di città. A tal fine possono essere attuati due metodi di intervento: la trasformazione dell’esistente attraverso la completa sostituzione dei manufatti edilizi, oppure la riqualificazione dell’esistente con opere mirate. Questo secondo modello di intervento ha il pregio di riconoscere il valore culturale del tessuto edilizio esistente, puntando a criteri di sviluppo sostenibile, e guardando ai manufatti esistenti riconoscendone il potenziale economico ed architettonico. Allo stato attuale pertanto la disciplina punta a questo secondo metodo di intervento ricercando soluzioni in grado di modificare le prestazioni dell’edificio fino a renderle soddisfacenti in rapporto alle nuove esigenze ambientali, economiche, del vivere contemporaneo dell’individuo e della collettività nel suo complesso. Tra le opere che possono essere attuate al fine di riqualificare queste preziose aree, oltre a quelle di riqualificazione che mirano al miglioramento del comportamento energetico e della qualità architettonica dell’edificio esistente, si considera anche l’intervento per addizione, che permette la densificazione dei tessuti esistenti attraverso l’aumento del numero di alloggi sociali e l’implementazione dei servizi. In questo modo si va ad implementare e completare la gamma di prestazioni di un manufatto edilizio che non è più in grado di soddisfare tutte quelle esigenze del vivere contemporaneo. Il risultato finale è quindi un sistema edilizio che, grazie all’intervento, può vantare una valorizzazione complessiva del patrimonio immobiliare, grazie agli elevati livelli di prestazione energetica, alle condizioni di vivibilità eccellenti raggiunte e alla migliorata qualità architettonica.
Resumo:
Negli ultimi decenni, le tecnologie e i prodotti informatici sono diventati pervasivi e sono ora una parte essenziale delle nostre vite. Ogni giorno ci influenzano in maniera più o meno esplicita, cambiando il nostro modo di vivere e i nostri comportamenti più o meno intenzionalmente. Tuttavia, i computer non nacquero inizialmente per persuadere: essi furono costruiti per gestire, calcolare, immagazzinare e recuperare dati. Non appena i computer si sono spostati dai laboratori di ricerca alla vita di tutti i giorni, sono però diventati sempre più persuasivi. Questa area di ricerca è chiamata pesuasive technology o captology, anche definita come lo studio dei sistemi informatici interattivi progettati per cambiare le attitudini e le abitudini delle persone. Nonostante il successo crescente delle tecnologie persuasive, sembra esserci una mancanza di framework sia teorici che pratici, che possano aiutare gli sviluppatori di applicazioni mobili a costruire applicazioni in grado di persuadere effettivamente gli utenti finali. Tuttavia, il lavoro condotto dal Professor Helal e dal Professor Lee al Persuasive Laboratory all’interno dell’University of Florida tenta di colmare questa lacuna. Infatti, hanno proposto un modello di persuasione semplice ma efficace, il quale può essere usato in maniera intuitiva da ingegneri o specialisti informatici. Inoltre, il Professor Helal e il Professor Lee hanno anche sviluppato Cicero, un middleware per dispositivi Android basato sul loro precedente modello, il quale può essere usato in modo molto semplice e veloce dagli sviluppatori per creare applicazioni persuasive. Il mio lavoro al centro di questa tesi progettuale si concentra sull’analisi del middleware appena descritto e, successivamente, sui miglioramenti e ampliamenti portati ad esso. I più importanti sono una nuova architettura di sensing, una nuova struttura basata sul cloud e un nuovo protocollo che permette di creare applicazioni specifiche per smartwatch.
Resumo:
L'EGR (Exhaust Gas Recirculation) è una tecnica comunemente sfruttata per la riduzione delle emissioni. In questo studio sono stati investigati i benefici, in termini di fuel economy, prodotti dall'aggiunta di un circuito EGR long route su un motore diesel per applicazioni automobilistiche dotato di sistema short route. L'indagine è stata svolta su di un modello motore su software GT-Power, adeguatamente calibrato e validato sui dati da piano quotato. Simulazioni sono state svolte al fine di valutare gli effetti del solo LP-EGR sul motore, per poi considerare un funzionamento combinato dai due sistemi di ricircolo (dual loop). Le maggiori portate che per il sistema long route interessano la turbina determinano un incremento nelle contropressioni. Ciò ha portato a considerare la possibilità di modificare il sistema turbo. Il layout originario comprendeva una turbina a geometria fissa (FGT), a cui ne sono stati affiancati due ulteriori con turbina a geometria variabile (VGT). I risultati sono stati analizzati vincolando la produzione di inquinanti ai valori registrati nei punti di calibrazione relativi al layout originale del motore. Effettivo risparmio di combustibile non è stato riscontrato nell'allestimento con turbina FGT a causa delle elevate contropressioni, mentre con turbine VGT è stata registrata una effettiva fuel economy grazie al sistema LP-EGR senza alcun deterioramento nelle emissioni di NOx e PM. I benefici riscontrati con il LP-EGR sono da attribure ad un incremento del rendimento indicato dovuto alla riduzione delle perdite per scambio termico a seguito di una minore temperatura caratterizzante i gas ricircolati.