670 resultados para Casalecchio di RenoRomainvilleAnalisi comparataPianificazione dei trasportiRiqualificazione strade
Resumo:
Cities are key locations where Sustainability needs to be addressed at all levels, as land is a finite resource. However, not all urban spaces are exploited at best, and land developers often evaluate unused, misused, or poorly-designed urban portions as impracticable constraints. Further, public authorities lose the challenge to enable and turn these urban spaces into valuable opportunities where Sustainable Urban Development may flourish. Arguing that these spatial elements are at the centre of SUD, the paper elaborates a prototype in the form of a conceptual strategic planning framework, committed to an effective recycling of the city spaces using a flexible and multidisciplinary approach. Firstly, the research focuses upon a broad review of Sustainability literature, highlighting established principles and guidelines, building a sound theoretical base for the new concept. Hence, it investigates origins, identifies and congruently suggests a definition, characterisation and classification for urban “R-Spaces”. Secondly, formal, informal and temporary fitting functions are analysed and inserted into a portfolio meant to enhance adaptability and enlarge the choices for the on-site interventions. Thirdly, the study outlines ideal quality requirements for a sustainable planning process. Then, findings are condensed in the proposal, which is articulated in the individuation of tools, actors, plans, processes and strategies. Afterwards, the prototype is tested upon case studies: Solar Community (Casalecchio di Reno, Bologna) and Hyllie Sustainable City Project, the latter developed via an international workshop (ACSI-Camp, Malmö, Sweden). Besides, the qualitative results suggest, inter alia, the need to right-size spatial interventions, separate structural and operative actors, involve synergies’ multipliers and intermediaries (e.g. entrepreneurial HUBs, innovation agencies, cluster organisations…), maintain stakeholders’ diversity and create a circular process open for new participants. Finally, the paper speculates upon a transfer of the Swedish case study to Italy, and then indicates desirable future researches to favour the prototype implementation.
Resumo:
Questa tesi ha come obiettivo principale quello di calcolare il gruppo fondamentale di alcuni spazi topologici noti, in particolare alcuni spazi di orbite rispetto ad azioni di gruppi. Il gruppo fondamentale è un gruppo che può essere associato ad ogni spazio topologico X connesso per archi e che per le sue proprietà può fornire informazioni sulla topologia di X; è uno dei primi concetti della topologia algebrica. La nozione di gruppo fondamentale è strettamente legata alla nozione di rivestimento, particolare funzione tale che ogni punto del codominio possiede un intorno aperto la cui retroimmagine è unione disgiunta di aperti del dominio ognuno dei quli omeomorfi all’intorno di partenza. Si prendono poi in considerazione il caso di spazio di orbite, cioè di uno spazio quoziente di uno spazio topologico X rispetto all’azione di un gruppo. Se tale azione è propriamente discontinua allora la proiezione canonica è un rivestimento. In questa tesi utilizzeremo i risultati che legano i gruppi fondamentali di X e X/G per calcolare il gruppo fondamentale di alcuni spazi notevoli, quali la circonferenza, il toro, lo spazio proiettivo e il nastro di Moebius.
Resumo:
Panoramica delle caratteristiche dei database NoSQL, con dettaglio su MongoDB: filosofia di progettazione, modello dei dati, indicizzazione, algoritmo Map-Reduce e gestione della memoria.
Resumo:
In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.
Resumo:
La realizzazione di cinque sezioni stratigrafiche nel territorio padano, orientate SSW-NNE e con profondità di circa 200 m, ha consentito lo studio della successione sedimentaria tardo-quaternaria della Pianura Padana centrale e dei suoi acquiferi, in particolare quelli più superficiali. La ricostruzione, ottenuta utilizzando le stratigrafie di pozzi per acqua fornite dall’archivio del Servizio Geologico, Sismico e dei Suoli di Regione Emilia-romagna, ha permesso di evidenziare una ciclicità deposizionale del 4° ordine, controllata da fattori glacio-eustatici. Grazie al riconoscimento di cicli trasgressivo-regressivi sono stati individuati cinque subsintemi corrispondenti ad altrettanti complessi acquiferi. La ricostruzione di pattern ciclici all’interno del Bacino Padano ha permesso la ricostruzione geometrica dei corpi sedimentari di channel-belt del Fiume Po, spessi corpi sabbiosi confinati da materiale impermeabile in cui sono contenute le falde acquifere. Alle informazioni stratigrafiche e litologiche si è unito lo studio delle caratteristiche idrochimiche ed isotopiche degli acquiferi, in modo tale da ottenere una chiave di lettura integrata dei depositi padani. Basandosi sulle diverse caratteristiche isotopiche delle acque è possibile risalire alla provenienza delle acque negli acquiferi. In questo modo si ottengono informazioni circa le modalità di ricarica dell'acquifero e la sorgente della ricarica. Un'applicazione secondaria di questo metodo è la verifica della vulnerabilità degli acquiferi padani. Lo studio delle facies idrochimiche è stato sovrapposto a quello dei valori isotopici delle acque, con l'obiettivo di definire una correlazione tra i due fattori chimici all’interno degli acquiferi. L'obiettivo di questa correlazione è quello di identificare la provenienza di un'acqua di ricarica senza la necessità di dati di natura isotopica.
Resumo:
Il presente lavoro si prefigge l’obiettivo di dimostrare che, per essere considerata completa, la formazione di un interprete deve comprendere, oltre all’insegnamento delle competenze traduttive e linguistiche, anche un percorso volto a migliorare le abilità comunicative degli studenti attraverso l’apprendimento delle tecniche di presentazione orale. Si è deciso di prestare particolare attenzione all’interpretazione consecutiva vista la sua dimensione di azione in pubblico. La presenza fisica di un interprete di consecutiva fa sì che la comunicazione avvenga su due piani paralleli: quello verbale e quello non-verbale. Per questo, un interprete professionista, e quindi uno studente, deve imparare a trasferire il contenuto del messaggio in modo fedele e corretto, sul piano linguistico, ma deve anche imparare ad esprimersi con chiarezza, con una voce ben impostata e ben modulata, con una adeguata velocità di eloquio, prestando attenzione alla dizione, alla fonetica, al contatto visivo con il pubblico, alle espressioni del viso, alla postura e alla gestualità. Per dimostrare l’importanza delle tecniche di presentazione orale nella formazione degli interpreti, si è deciso di iniziare stabilendo i presupposti teorici della professione e descrivendo il lavoro e il ruolo dell’interprete all’interno dell’evento comunicativo della conferenza (capitolo I). Nel capitolo II si è quindi definito il gesto, descrivendo le teorie sulla sua origine cognitiva e funzionale, trattando la letteratura sulle classificazioni delle tipologie gestuali e illustrando uno studio sulle variazioni geografiche dei gesti e uno sulla possibile creazione di un dizionario dei gesti italiani. Infine, il capitolo terzo è stato dedicato alla descrizione delle tecniche e degli aspetti legati alla presentazione orale e il capitolo quarto all’applicazione pratica dei consigli illustrati, attraverso l’uso di materiale di supporto di conferenze interpretate e videoregistrate.
Resumo:
Analisi cinematica delle fasi del nuoto, velocità in vasca e body roll attraverso l'uso di sensori inerziali. Implementazione di innovativi algoritmi di calcolo con l'utilizzo del filtro di Kalman 3D, matrici di rotazione e quaternioni per la determinazione dei parametri fondamentali del nuoto e della posizione del polso nel sistema di riferimento di torace. Confronto dei risultati ottenuti mediante i diversi algoritmi e loro validazione con quelli ottenuti con l'uso della stereofotogrammetria. Gli algoritmi possono essere generalizzati ad altri gesti motori.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
La vita di un aeromobile è un elemento importante sia per quanto riguarda la sicurezza del payload, che da un punto di vista economico, a causa delle spese di manutenzione/rinnovamento della flotta che una compagnia aerea deve affrontare. Gli elementi costitutivi di un aeromobile sono soggetti a diverse tipologie di carichi, alcuni dei quali ciclici come la pressurizzazione/depressurizzazione della fusoliera; tali carichi, nel lungo periodo, possono provocare la nascita e la propagazione di eventuali cricche, le quali possono portare alla rottura del componente stesso causando gravi incidenti. Il legame tra tensioni residue e nascita/crescita delle cricche ha portato allo sviluppo di tecniche per contrastare questo fenomeno, come il processo del LSP. Per la misura delle tensioni residue esistono già normative di riferimento, le quali però non trattano componenti metallici di piccolo spessore mentre i pannelli di fusoliera rientrano in questa categoria. Scopo di questa tesi è quello di studiare una variante della tecnica HD adatta a valutare le tensioni residue in componenti metallici di piccolo spessore e confrontare i risultati con quelli ottenuti con la tecnica XRD. L’idea di partenza è l’implementazione di un supporto posteriore in resina che simuli la presenza di uno spessore maggiore.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione
Resumo:
Questo elaborato finale riguarda la figura del teorico e traduttore slovacco Blahoslav Hečko. I primi capitoli contengono una breve descrizione della sua vita e delle sue opere sulla teoria della traduzione ("Nehádžte perly sviniam" e "Dobrodružstvo prekladu"). Il resto della tesi si concentra sulla traduzione verso lo slovacco del libro per l'infanzia di Gianni Rodari "Le avventure di Cipollino". La parte più corposa è rappresentata proprio dal commento analitico alla traduzione. Sono stati selezionati cinque capitoli del libro di Rodari in base alla presenza di sfide traduttive particolarmente interessanti e si è prestata particolare attenzione alla resa dei nomi propri, dei modi di dire e dei realia italiani. Nel confrontare il testo originale e la traduzione si è cercato di spiegare le scelte del traduttore attraverso annotazioni grammaticali e approfondimenti di carattere culturale, in alcuni casi sono state avanzate proposte alternative.