938 resultados para Strutture di rete lobbying Stati Uniti
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.
Resumo:
I materiali compositi occupano un posto di particolare rilievo in virtù non solo delle forti caratteristiche innovative da loro possedute, ma anche dalla possibilità di progettare il materiale in base alle specifiche funzionali e strutturali del sistema da realizzare. In questo lavoro di tesi sono stati valutati gli effetti di grafene e ossido di grafene sulle proprietà termo-meccaniche di formulazioni polimeriche commerciali sia di tipo termoplastico che termoindurente. In particolare sono stati valutati i metodi di dispersione delle nanocariche, ottimizzandoli per ciascuna matrice polimerica e successivamente sono stati preparati i provini necessari per la caratterizzazione dei materiali (nano)compositi ottenuti, al fine di valutare l’effetto della presenza delle nanocariche grafeniche.
Resumo:
L’interpretazione televisiva desta particolare interesse nella ricerca sull’interpretazione, perché questo contesto lavorativo dà una grande visibilità alla professione dell’interprete. Dato il considerevole aumento dell’importanza dei mezzi di comunicazione di massa e la loro capillarità, si impone una forma di trasferimento linguistico che renda fruibili al più vasto pubblico gli eventi trasmessi. Lo scopo di questo studio è presentare l’interpretazione televisiva nelle sue varie forme, soffermandosi poi sull’interpretazione simultanea e in particolare sull’analisi di due interpretazioni di uno stesso evento mediatico: il secondo dibattito televisivo del 2012 tra i due candidati alla presidenza degli Stati Uniti d’America: l’ex governatore del Massachusetts Mitt Romney e il presidente uscente Barack Obama. Il primo capitolo si basa sui dibattiti presidenziali statunitensi e illustra la storia dei dibattiti televisivi statunitensi, oltre al contesto e al discorso politico americano. Nel secondo capitolo viene analizzata l’interpretazione per la televisione. Dopo alcuni cenni storici, si passano in rassegna le diverse modalità di conversione linguistica utilizzate nel contesto televisivo. Il terzo capitolo verte sulla presentazione dei dati raccolti, la selezione e la trascrizione degli stessi. Il quarto capitolo contiene la vera e propria analisi delle rese interpretative in italiano dei dibattiti presidenziali americani scelti. Vengono prese in esame e confrontate le interpretazioni in italiano dello stesso dibattito trasmesse da due diversi canali: Rai News e Sky TG24. Il quinto capitolo contiene alcune considerazioni conclusive che si basano sul risultato dell’analisi dei dati. Nell’appendice viene invece presentata una parte del materiale analizzato, ovvero le trascrizioni segmentate e allineate del dibattito in originale e delle due interpretazioni.
Resumo:
In questo lavoro di tesi è stata investigata la possibilità di utilizzare particolari composti inorganici chiamati metallo-esacianometallati per la produzione elettrochimica di idrogeno. In particolare, elettrodi di glassy carbon (GC) sono stati modificati con TiO2-esacianometallati, come il cobalto-esacianoferrato (CoHCF), indio-esacianoferrato (InHCF) e nichel-cobalto esacianoferrato (NiCoHCF) e le loro performance per la produzione elettrocatalitica di idrogeno sono state esaminate con e senza esposizione alla luce UV. La spettroscopia IR e diffrazione dei raggi X di polveri (XRD) sono stati utilizzate per studiare la morfologia e la struttura dei campioni di TiO2 modificata con metallo-esacianoferrati. La caratterizzazione elettrochimica è stata eseguita attraverso voltammetria ciclica (CV) e cronopotenziometria. Per ottimizzare le condizioni, l'influenza di alcuni parametri tra cui la quantità di catalizzatori nella composizione dell’elettrodo ed il pH dell'elettrolita di supporto sono stati esaminati nel processo di produzione di idrogeno. Gli studi effettuati utilizzando gli elettrodi modificati, evidenziano la migliore performance quando l’elettrodo è modificato con TiO2-InHCF ed è esposto a luce UV. L'elettrodo proposto mostra diversi vantaggi tra cui un lungo ciclo di vita, basso costo, ottima performance e facilità di preparazione su larga scala, potrebbe quindi essere considerato un candidato ideale per la produzione elettrocatalitica di idrogeno.
Resumo:
In questo lavoro di tesi sono stati presentati alcuni concetti sulla teoria delle martingale, un processo stocastico dipendente dal tempo. Nel primo capitolo si studiano le prime proprietà delle martingale, ponendo particolare attenzione per il valore atteso condizionato. Nel secondo capitolo si analizza la convergenza delle martingale negli spazi L^p e nel caso particolare dello spazio L^1, richiamando alcuni importanti teoremi di convergenza di Doob. Infine è stata studiata un'applicazione delle martingale alla Finanza Matematica: i moti browniani.
Resumo:
La linea ferroviaria Bologna-Porretta mostra evidenze deformative nel tratto ad EST della stazione di Silla, già da metà del secolo scorso. Il fenomeno si manifesta in una zona delimitata a SUD da un grande deposito di frana quiescente e a NORD dal corso del fiume Reno. In questo contesto, è stato possibile seguire le indagini geognostiche commissionate da RFI, finalizzate alla caratterizzazione geologico-tecnica del problema deformativo e all’installazione di alcuni strumenti di monitoraggio. L’obiettivo principale è quello di ricostruire le dinamiche dei processi in atto, valutando quale sia la causa primaria del cedimento del rilevato ferroviario. Il lavoro ha inizialmente previsto una fase di attività sul campo. Successivamente, prove di laboratorio sono state svolte su cinque campioni rimaneggiati ottenuti da spezzoni di carota. Le stratigrafie di sondaggio, le osservazioni di campo e i risultati delle prove di laboratorio sono stati elaborati assieme ad altri dati a disposizione, quali dati di interferometria radar, dati di monitoraggio e risultati di prove di laboratorio esterne, così da produrre il modello geologico-tecnico dell’area. Nel modello, la superficie di scorrimento si trova a circa 10 m di profondità, coerentemente con le misure degli inclinometri, mentre la falda oscilla tra i 2,0 m e gli 0,5 m di profondità da piano campagna. Infine, le analisi di stabilità sono state divise in una fase di back-analysis e in una fase previsionale che ipotizzasse alcuni interventi di sistemazione. Dal lavoro è stato possibile concludere che il versante destro del fiume Reno è attualmente soggetto a movimenti gravitativi. Le simulazioni effettuate hanno portato a determinare due meccanismi di rottura plausibili. Una batteria di dreni suborizzontali permetterebbe di stabilizzare le superfici di scorrimento critiche con un buon incremento del Fattore di Sicurezza, mentre trincee drenanti e pali rappresentano soluzioni meno efficaci.
Resumo:
In questo lavoro di tesi sono stati utilizzati profili sismici a riflessione a varie scale, acquisiti nel Golfo di Corigliano (Margine Ionico della Calabria) con lo scopo di studiare la deformazione tettonica e l’organizzazione dei depositi superficiali (tardo Pleistocenici) di quest’area di transizione tra il fronte di collisione Appenninico e il retroarco della subduzione Calabra. Lo studio della Dorsale dell’Amendolara si è dimostrato essere un elemento chiave per la comprensione geologica di questo settore crostale, considerato relativamente stabile ma sede di una significativa sismicità. L’analisi dei profili sismici ha rivelato la presenza di un fronte tettonico attivo (Faglia dell’Amendolara) che corre lungo il fianco occidentale dell’omonima Dorsale e che, secondo numerose evidenze geologico-strutturali, sembrerebbe caratterizzato attualmente da una cinematica trascorrente sinistra. L’attuale regime si è probabilmente sovraimposto ai fronti compressivi Neogenico-Quaternari, legati alla convergenza Appenninica. Queste evidenze fanno ipotizzare che la genesi della depressione confinata tra la costa calabrese e la Dorsale dell’Amendolara, coincidente con il Bacino di Sibari-Corigliano, sia stata causata da flessura della litosfera in seguito all’avanzamento delle coltri compressive da NNE. I dati a disposizione mostrano che la depressione del Bacino di Sibari-Corigliano, si trova attualmente in una situazione di riempimento “passivo” da parte dei depositi provenienti dal Fiume Crati e da fenomeni di instabilità gravitativa, probabilmente innescati da terremoti localizzati soprattutto lungo il fianco occidentale della Dorsale dell’Amendolara.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
Il termine “sovrastruttura stradale” identifica l’insieme di strati legati e non legati che, partendo dal piano viabile, raggiungono la sommità del rilevato o il piano di posa, nelle sezioni in trincea. Al fine di fornire agli utenti stradali sovrastrutture in grado di sviluppare prestazioni ottimali per lunghi periodi, è necessario che esse siano manutenute utilizzando i metodi via via più consoni al tipo di dissesto che si verifica. Attraverso numerose ricerche è emerso come uno dei fattori di maggiore influenza per il degrado stradale sia da attribuire all’efficacia del collegamento fra i diversi elementi di una sovrastruttura. Gli stati tensionali che si creano all’interfaccia fra due strati adiacenti, se non contrastati adeguatamente, possono provocare effetti dannosi come l’insorgere di fessurazioni ed il distacco fra gli strati. Per contrastare tali fenomeni, si è sviluppata la tecnica di inserire uno strato di rinforzo all’interno della sovrastruttura costituito da materiali metallici o sintetici anche nell’ambito delle costruzioni stradali. La ricerca effettuata in questo elaborato prevede lo studio del collegamento fra gli strati superficiali di una sovrastruttura flessibile rinforzata con geogriglie in fibra di vetro, mediante prove sperimentali condotte con apparecchiatura Leutner. Tale metodologia di prova è utilizzata per valutare la resistenza a taglio all’interfaccia fra i vari strati che compongono la pavimentazione. I campioni di prova sono stati estratti tramite carotatura da una pavimentazione esistente. Come ulteriore indagine, con gli stessi conglomerati sono stati creati nuovi campioni doppio strato mediante compattazione in pressa giratoria. Si è poi ripetuta la prova Leutner, per valutare la possibile variazione dei risultati ottenuti in precedenza e, in tale caso, studiare l’influenza della compattazione sulla resistenza a taglio presente all’interfaccia fra i due strati.
Confronto simulativo tra architetture per la mobilità: analisi simulatore MIPv6 e confronto con ABPS
Resumo:
Il presente elaborato tratta il lavoro di studio, analisi e sperimentazione effettuato dal sottoscritto, Giovanni Sitta, in conclusione al Corso di Laurea Magistrale in Informatica presso l'Università degli Studi di Bologna. Questo ha dapprima previsto un periodo di approfondimento di alcune architetture di supporto alla mobilità dei terminali di rete, in particolare di due protocolli allo stato dell'arte, Mobile IPv6 (MIPv6) e Locator/Identifier Separation Protocol (LISP), e di una terza architettura sperimentale denominata Always Best Packet Switching (ABPS). Sono stati in seguito esaminati tre simulatori, uno per ciascuna architettura di supporto alla mobilità considerata, realizzati come estensioni della libreria INET del framework OMNeT++, assicurandosi che fossero conformi alle specifiche del protocollo implementato (almeno entro i limiti di semplificazione rilevanti ai fini del lavoro), e correggendone eventuali problematiche, mancanze e anomalie in caso questi non le rispettassero. Sono poi stati configurati alcuni scenari simulativi utilizzando le tre librerie, in prima battuta di natura molto semplice, utilizzati per verificare il corretto funzionamento dei simulatori in condizioni ideali, e successivamente più complessi, allestendo un ambiente di esecuzione più verosimile, dotato di un maggior numero di host connessi alla rete e di ostacoli per i segnali radio usati nelle comunicazioni wireless. Tramite i risultati sperimentali ottenuti da queste simulazioni è stato infine possibili realizzare un confronto tra le prestazioni di MIPv6, LISP e ABPS.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.