999 resultados para Casalecchio di RenoRomainvilleAnalisi comparataPianificazione dei trasportiRiqualificazione strade


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio dei sistemi termodinamici che possono accedere a stati di inversione di popolazione. Confronto dei risultati ottenuti studiando questi sistemi sia con l'approccio di Boltzmann che con quello di Gibbs alla meccanica statistica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N
Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cities are key locations where Sustainability needs to be addressed at all levels, as land is a finite resource. However, not all urban spaces are exploited at best, and land developers often evaluate unused, misused, or poorly-designed urban portions as impracticable constraints. Further, public authorities lose the challenge to enable and turn these urban spaces into valuable opportunities where Sustainable Urban Development may flourish. Arguing that these spatial elements are at the centre of SUD, the paper elaborates a prototype in the form of a conceptual strategic planning framework, committed to an effective recycling of the city spaces using a flexible and multidisciplinary approach. Firstly, the research focuses upon a broad review of Sustainability literature, highlighting established principles and guidelines, building a sound theoretical base for the new concept. Hence, it investigates origins, identifies and congruently suggests a definition, characterisation and classification for urban “R-Spaces”. Secondly, formal, informal and temporary fitting functions are analysed and inserted into a portfolio meant to enhance adaptability and enlarge the choices for the on-site interventions. Thirdly, the study outlines ideal quality requirements for a sustainable planning process. Then, findings are condensed in the proposal, which is articulated in the individuation of tools, actors, plans, processes and strategies. Afterwards, the prototype is tested upon case studies: Solar Community (Casalecchio di Reno, Bologna) and Hyllie Sustainable City Project, the latter developed via an international workshop (ACSI-Camp, Malmö, Sweden). Besides, the qualitative results suggest, inter alia, the need to right-size spatial interventions, separate structural and operative actors, involve synergies’ multipliers and intermediaries (e.g. entrepreneurial HUBs, innovation agencies, cluster organisations…), maintain stakeholders’ diversity and create a circular process open for new participants. Finally, the paper speculates upon a transfer of the Swedish case study to Italy, and then indicates desirable future researches to favour the prototype implementation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha come obiettivo principale quello di calcolare il gruppo fondamentale di alcuni spazi topologici noti, in particolare alcuni spazi di orbite rispetto ad azioni di gruppi. Il gruppo fondamentale è un gruppo che può essere associato ad ogni spazio topologico X connesso per archi e che per le sue proprietà può fornire informazioni sulla topologia di X; è uno dei primi concetti della topologia algebrica. La nozione di gruppo fondamentale è strettamente legata alla nozione di rivestimento, particolare funzione tale che ogni punto del codominio possiede un intorno aperto la cui retroimmagine è unione disgiunta di aperti del dominio ognuno dei quli omeomorfi all’intorno di partenza. Si prendono poi in considerazione il caso di spazio di orbite, cioè di uno spazio quoziente di uno spazio topologico X rispetto all’azione di un gruppo. Se tale azione è propriamente discontinua allora la proiezione canonica è un rivestimento. In questa tesi utilizzeremo i risultati che legano i gruppi fondamentali di X e X/G per calcolare il gruppo fondamentale di alcuni spazi notevoli, quali la circonferenza, il toro, lo spazio proiettivo e il nastro di Moebius.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Panoramica delle caratteristiche dei database NoSQL, con dettaglio su MongoDB: filosofia di progettazione, modello dei dati, indicizzazione, algoritmo Map-Reduce e gestione della memoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La realizzazione di cinque sezioni stratigrafiche nel territorio padano, orientate SSW-NNE e con profondidi circa 200 m, ha consentito lo studio della successione sedimentaria tardo-quaternaria della Pianura Padana centrale e dei suoi acquiferi, in particolare quelli più superficiali. La ricostruzione, ottenuta utilizzando le stratigrafie di pozzi per acqua fornite dall’archivio del Servizio Geologico, Sismico e dei Suoli di Regione Emilia-romagna, ha permesso di evidenziare una ciclicità deposizionale del 4° ordine, controllata da fattori glacio-eustatici. Grazie al riconoscimento di cicli trasgressivo-regressivi sono stati individuati cinque subsintemi corrispondenti ad altrettanti complessi acquiferi. La ricostruzione di pattern ciclici all’interno del Bacino Padano ha permesso la ricostruzione geometrica dei corpi sedimentari di channel-belt del Fiume Po, spessi corpi sabbiosi confinati da materiale impermeabile in cui sono contenute le falde acquifere. Alle informazioni stratigrafiche e litologiche si è unito lo studio delle caratteristiche idrochimiche ed isotopiche degli acquiferi, in modo tale da ottenere una chiave di lettura integrata dei depositi padani. Basandosi sulle diverse caratteristiche isotopiche delle acque è possibile risalire alla provenienza delle acque negli acquiferi. In questo modo si ottengono informazioni circa le modalità di ricarica dell'acquifero e la sorgente della ricarica. Un'applicazione secondaria di questo metodo è la verifica della vulnerabilità degli acquiferi padani. Lo studio delle facies idrochimiche è stato sovrapposto a quello dei valori isotopici delle acque, con l'obiettivo di definire una correlazione tra i due fattori chimici all’interno degli acquiferi. L'obiettivo di questa correlazione è quello di identificare la provenienza di un'acqua di ricarica senza la necessità di dati di natura isotopica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro si prefigge l’obiettivo di dimostrare che, per essere considerata completa, la formazione di un interprete deve comprendere, oltre all’insegnamento delle competenze traduttive e linguistiche, anche un percorso volto a migliorare le abilità comunicative degli studenti attraverso l’apprendimento delle tecniche di presentazione orale. Si è deciso di prestare particolare attenzione all’interpretazione consecutiva vista la sua dimensione di azione in pubblico. La presenza fisica di un interprete di consecutiva fa sì che la comunicazione avvenga su due piani paralleli: quello verbale e quello non-verbale. Per questo, un interprete professionista, e quindi uno studente, deve imparare a trasferire il contenuto del messaggio in modo fedele e corretto, sul piano linguistico, ma deve anche imparare ad esprimersi con chiarezza, con una voce ben impostata e ben modulata, con una adeguata velocità di eloquio, prestando attenzione alla dizione, alla fonetica, al contatto visivo con il pubblico, alle espressioni del viso, alla postura e alla gestualità. Per dimostrare l’importanza delle tecniche di presentazione orale nella formazione degli interpreti, si è deciso di iniziare stabilendo i presupposti teorici della professione e descrivendo il lavoro e il ruolo dell’interprete all’interno dell’evento comunicativo della conferenza (capitolo I). Nel capitolo II si è quindi definito il gesto, descrivendo le teorie sulla sua origine cognitiva e funzionale, trattando la letteratura sulle classificazioni delle tipologie gestuali e illustrando uno studio sulle variazioni geografiche dei gesti e uno sulla possibile creazione di un dizionario dei gesti italiani. Infine, il capitolo terzo è stato dedicato alla descrizione delle tecniche e degli aspetti legati alla presentazione orale e il capitolo quarto all’applicazione pratica dei consigli illustrati, attraverso l’uso di materiale di supporto di conferenze interpretate e videoregistrate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi cinematica delle fasi del nuoto, velocità in vasca e body roll attraverso l'uso di sensori inerziali. Implementazione di innovativi algoritmi di calcolo con l'utilizzo del filtro di Kalman 3D, matrici di rotazione e quaternioni per la determinazione dei parametri fondamentali del nuoto e della posizione del polso nel sistema di riferimento di torace. Confronto dei risultati ottenuti mediante i diversi algoritmi e loro validazione con quelli ottenuti con l'uso della stereofotogrammetria. Gli algoritmi possono essere generalizzati ad altri gesti motori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.