928 resultados para Tomografia, prove soniche dirette, surfer, geotom, velocità di propagazione
Resumo:
La presente tesi analizza il comportamento tenuto dagli utenti nel percorrere intersezioni a T particolari, nelle quali la precedenza è associata alla corrente veicolare secondaria e non a quella principale. Sono state scelte due intersezioni ubicate all'interno del territorio comunale della provincia di Bologna e sono state svolte le riprese video di un campione significativo di utenti, a cui è seguito un calcolo delle velocità di attraversamento di ciascuna intersezione. L’intento è quello di individuare le caratteristiche che rendono la progettazione di un tratto stradale una buona progettazione, capace di garantire un livello appropriato di sicurezza e comfort per l’utente. Dall’analisi delle velocità, è emerso che gli utenti sottoposti ad una segnaletica chiara ed evidente prestavano un’attenzione molto maggiore rispetto a coloro che non hanno percepito le regole di precedenza a causa di una conformazione sbagliata dell’incrocio. I primi infatti hanno tenuto una velocità di attraversamento inferiore rispetto ai secondi, pur essendo in entrambi i casi veicoli provenienti da strada senza diritto di precedenza.
Resumo:
Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.
Resumo:
I transistor elettrochimici a base organica (OECT) hanno attratto sempre maggior interesse e sono oggetto di molti studi dagli anni '70 no ai nostri giorni. Questo lavoro di tesi ha come oggetto la realizzazione e la caratterizzazione di OECT a base di poli(3,4-etilen-diossi-tiofene) complessato con l'acido stirensolfonico (PSS). Questi dispositivi sono stati costruiti utilizzando solamente semiconduttori organici come materiali conduttivi ovvero senza l'uso di metalli, quindi risultano essere biocompatibili, economici e di semplice realizzazione. Questo tipo di sensori presenta un elevata sensibilità agli analiti e necessita di un'elettronica di controllo molto più semplice rispetto a metodi elettrochimici tradizionali che utilizzano un potenziostato ed un elettrodo di riferimento. Sono state studiate diverse geometrie e spessori di polimero depositato per ottimizzare le condizioni di lavoro per avere alta sensibilità e guadagno in corrente attraverso l'uso di misure di corrente di drain in funzione del tempo con aggiunte successive di analita. Questi dispositivi sono stati utilizzati come sensori di analiti quali la dopamina, l'acido ascorbico e l'acido urico. Attraverso scansioni in transcaratteristica, si è studiata la risposta dei transistor relativa agli analiti ed attraverso lo studio della transconduttanza si è ottenuta una nuova metodologia di lavoro in grado di separare i contributi relativi ai vari composti. Inoltre, in questa modalità, è stato possibile ottenere una selettività dei sensori ai vari analiti, problema principale dell'utilizzo di transistor elettrochimici, ed attraverso la modulazione della velocità di scansione dello strumento, è stata ottenuta una risposta alla sola dopamina, analita di maggior interesse per applicazioni biosensoristiche. In conclusione si può affermare che questo tipo di dispositivo possiede ottime proprietà e caratteristiche per ulteriori studi e sviluppi in applicazioni reali.
Resumo:
Il tatto assume un'importanza fondamentale nella vita quotidiana, in quanto ci permette di discriminare le caratteristiche fisiche di un oggetto specifico, di identificarlo e di eventualmente integrare le suddette informazioni tattili con informazioni provenienti da altri canali sensoriali. Questa è la componente sensoriale-discriminativa del tatto. Tuttavia quotidianamente il tatto assume un ruolo fondamentale durante le diverse interazioni sociali, positive, come quando abbracciamo o accarezziamo una persona con cui abbiamo un rapporto affettivo e negative, per esempio quando allontaniamo una persona estranea dal nostro spazio peri-personale. Questa componente è la cosiddetta dimensione affettiva-motivazionale, la quale determina la codifica della valenza emotiva che l'interazione assume. Questa componente ci permette di creare, mantenere o distruggere i legami sociali in relazione al significato che il tocco assume durante l'interazione. Se per esempio riceviamo una carezza da un familiare, questa verrà percepita come piacevole e assumerà un significato affiliativo. Questo tipo di tocco è comunente definito come Tocco Sociale (Social Touch). Gli aspetti discriminativi del tatto sono stati ben caratterizzati, in quanto storicamente, il ruolo del tatto è stato considerato quello di discriminare le caratteristiche di ciò che viene toccato, mentre gli aspetti affettivi sono stati solo recentemente indagati considerando la loro importanza nelle interazioni sociali. Il tocco statico responsabile dell'aspetto discriminante attiva a livello della pelle le grandi fibre mieliniche (Aβ), modulando a livello del sistema nervoso centrale le cortecce sensoriali, sia primarie che secondarie. Questo permette la codifica a livello del sistema nervoso centrale delle caratteristiche fisiche oggettive degli oggetti toccati. Studi riguardanti le caratteristiche del tocco affiliativo sociale hanno messo in evidenza che suddetta stimolazione tattile 1) è un particolare tocco dinamico che avviene sul lato peloso delle pelle con una velocità di 1-10 cm/sec; 2) attiva le fibre amieliniche (fibre CT o C-LTMRs); 3) induce positivi effetti autonomici, ad esempio la diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca; e 4) determina la modulazione di regioni cerebrali coinvolte nella codifica del significato affiliativo dello stimolo sensoriale periferico, in particolare la corteccia insulare. Il senso del tatto, con le sue due dimensioni discriminativa e affiliativa, è quotidianamente usato non solo negli esseri umani, ma anche tra i primati non umani. Infatti, tutti i primati non umani utilizzano la componente discriminativa del tatto per identificare gli oggetti e il cibo e l'aspetto emotivo durante le interazioni sociali, sia negative come durante un combattimento, che positive, come durante i comportamenti affiliativi tra cui il grooming. I meccanismi di codifica della componente discriminativa dei primati non umani sono simili a quelli umani. Tuttavia, si conosce ben poco dei meccanismi alla base della codifica del tocco piacevole affiliativo. Pur essendo ben noto che i meccanorecettori amilienici C-LTMRs sono presenti anche sul lato peloso della pelle dei primati non umani, attualmente non ci sono studi riguardanti la correlazione tra il tocco piacevole e la loro modulazione, come invece è stato ampiamente dimostrato nell'uomo. Recentemente è stato ipotizzato (Dunbar, 2010) il ruolo delle fibre C-LTMRs durante il grooming, in particolare durante il cosiddetto swepping. Il grooming è costituito da due azioni motorie, lo sweeping e il picking che vengono eseguite in modo ritmico. Durante lo sweeping la scimmia agente muove il pelo della scimmia ricevente con un movimento a mano aperta, per poter vedere il preciso punto della pelle dove eseguire il picking, ovvero dove prendere la pelle a livello della radice del pelo con le unghie dell'indice e del pollice e tirare per rimuovere parassiti o uova di parassiti e ciò che è rimasto incastrato nel pelo. Oltre il noto ruolo igenico, il grooming sembra avere anche una importante funzione sociale affiliativa. Come la carezza nella società umana, cosi il grooming tra i primati non umani è considerato un comportamento. Secondo l'ipotesi di Dunbar l'attivazione delle C-LTMRs avverrebbe durante lo sweeping e questo porta a supporre che lo sweeping, come la carezza umana, costituisca una componente affiliativa del grooming, determinando quindi a contribuire alla sua codifica come comportamento sociale. Fino ad ora non vi è però alcuna prova diretta a sostegno di questa ipotesi. In particolare, 1) la velocità cui viene eseguito lo sweeping è compatibile con la velocità di attivazione delle fibre CT nell'uomo e quindi con la velocità tipica della carezza piacevole di carattere sociale affiliativo (1-10 cm/sec)?; 2) lo sweeping induce la stessa modulazione del sistema nervoso autonomo in direzione della modulazione del sistema vagale, come il tocco piacevole nell'uomo, attraverso l'attivazione delle fibre CT?; 3) lo sweeping modula la corteccia insulare, cosi come il tocco piacevole viene codificato come affiliativo nell'uomo mediante le proiezioni delle fibre CT a livello dell'insula posteriore? Lo scopo del presente lavoro è quella di testare l'ipotesi di Dunbar sopra citata, cercando quindi di rispondere alle suddette domande. Le risposte potrebbero consentire di ipotizzare la somiglianza tra lo sweeping, caratteristico del comportamento affiliativo di grooming tra i primati non umani e la carezza. In particolare, abbiamo eseguito 4 studi pilota. Nello Studio 1 abbiamo valutato la velocità con cui viene eseguito lo sweeping tra scimmie Rhesus, mediante una analisi cinematica di video registrati tra un gruppo di scimmie Rhesus. Negli Studi 2 e 3 abbiamo valutato gli effetti sul sistema nervoso autonomo dello sweeping eseguito dallo sperimentatore su una scimmia Rhesus di sesso maschile in una tipica situazione sperimentale. La stimolazione tattile è stata eseguita a diverse velocità, in accordo con i risultati dello Studio 1 e degli studi umani che hanno dimostrato la velocità ottimale e non ottimale per l'attivazione delle C-LTMRs. In particolare, nello Studio 2 abbiamo misurato la frequenza cardiaca e la variabilità di questa, come indice della modulatione vagale, mentre nello Studio 3 abbiamo valutato gli effetti dello sweeping sul sistema nervoso autonomo in termini di variazioni di temperatura del corpo, nello specifico a livello del muso della scimmia. Infine, nello Studio 4 abbiamo studiato il ruolo della corteccia somatosensoriale secondaria e insulare nella codifica dello sweeping. A questo scopo abbiamo eseguito registrazioni di singoli neuroni mentre la medesima scimmia soggetto sperimentale dello Studio 2 e 3, riceveva lo sweeping a due velocità, una ottimale per l'attivazione delle C-LTMRs secondo gli studi umani e i risultati dei tre studi sopra citati, ed una non ottimale. I dati preliminari ottenuti, dimostrano che 1) (Studio 1) lo sweeping tra scimmie Rhesus viene eseguito con una velocità media di 9.31 cm/sec, all'interno dell'intervallo di attivazione delle fibre CT nell'uomo; 2) (Studio 2) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina una diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca se eseguito alla velocità di 5 e 10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 1 cm/sec o maggiore di 10 cm/sec, determina l'aumento della frequenza cardiaca e la diminuzione della variabilità di questa, quindi il decremento dell'attivazione del sistema nervoso parasimpatico; 3) (Studio 3) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina l'aumento della temperatura corporea a livello del muso della scimmia se eseguito alla velocità di 5-10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 5 cm/sec o maggiore di 10 cm/sec, determina la diminuzione della temperatura del muso; 4) (Studio 4) la corteccia somatosensoriale secondaria e la corteccia insulare posteriore presentano neuroni selettivamente modulati durante lo sweeping eseguito ad una velocità di 5-13 cm/sec ma non neuroni selettivi per la codifica della velocità dello sweeping minore di 5 cm/sec. Questi risultati supportano l'ipotesi di Dunbar relativa al coinvolgimento delle fibre CT durante lo sweeping. Infatti i dati mettono in luce che lo sweeping viene eseguito con una velocità (9.31 cm/sec), simile a quella di attivazione delle fibre CT nell'uomo (1-10 cm/sec), determina gli stessi effetti fisiologici positivi in termini di frequenza cardiaca (diminuzione) e variabilità della frequenza cardiaca (incremento) e la modulazione delle medesime aree a livello del sistema nervoso centrale (in particolare la corteccia insulare). Inoltre, abbiamo dimostrato per la prima volta che suddetta stimolazione tattile determina l'aumento della temperatura del muso della scimmia. Il presente studio rappresenta la prima prova indiretta dell'ipotesi relativa alla modulazione del sistema delle fibre C-LTMRs durante lo sweeping e quindi della codifica della stimolazione tattile piacevole affiliativa a livello del sistema nervoso centrale ed autonomo, nei primati non umani. I dati preliminari qui presentati evidenziano la somiglianza tra il sistema delle fibre CT dell'uomo e del sistema C-LTMRs nei primati non umano, riguardanti il Social Touch. Nonostante ciò abbiamo riscontrato alcune discrepanze tra i risultati da noi ottenuti e quelli invece ottenuti dagli studi umani. La velocità media dello sweeping è di 9.31 cm / sec, rasente il limite superiore dell’intervallo di velocità che attiva le fibre CT nell'uomo. Inoltre, gli effetti autonomici positivi, in termini di battito cardiaco, variabilità della frequenza cardiaca e temperatura a livello del muso, sono stati evidenziati durante lo sweeping eseguito con una velocità di 5 e 10 cm/sec, quindi al limite superiore dell’intervallo ottimale che attiva le fibre CT nell’uomo. Al contrario, lo sweeping eseguito con una velocità inferiore a 5 cm/sec e superiore a 10 cm/sec determina effetti fisiologici negativo. Infine, la corteccia insula sembra essere selettivamente modulata dallo stimolazione eseguita alla velocità di 5-13 cm/sec, ma non 1-5 cm/sec. Quindi, gli studi sul sistema delle fibre CT nell’uomo hanno dimostrato che la velocità ottimale è 1-10 cm/sec, mentre dai nostri risultati la velocità ottimale sembra essere 5-13 cm / sec. Quindi, nonostante l'omologia tra il sistema delle fibre CT nell'umano deputato alla codifica del tocco piacevole affiliativo ed il sistema delle fibre C-LTMRs nei primati non umani, ulteriori studi saranno necessari per definire con maggiore precisione la velocità ottimale di attivazione delle fibre C-LTMR e per dimostrare direttamente la loro attivazione durante lo sweeping, mediante la misurazione diretta della loro modulazione. Studi in questa direzione potranno confermare l'omologia tra lo sweeping in qualità di tocco affiliativo piacevole tra i primati non umani e la carezza tra gli uomini. Infine, il presente studio potrebbe essere un importante punto di partenza per esplorare il meccanismo evolutivo dietro la trasformazione dello sweeping tra primati non umani, azione utilitaria eseguita durante il grooming, a carezza, gesto puramente affiliativo tra gli uomini.
Resumo:
Helicobacter pylori è un batterio Gram-negativo in grado di colonizzare la mucosa gastrica umana e persistere per l'intero arco della vita dell'ospite. E' associato a patologie gastrointestinali, quali gastrite cronica, ulcere gastriche e duodenali, adenocarcinomi e linfomi gastrici. Si tratta di uno dei patogeni più diffusi, presente in circa metà della popolazione mondiale, e il solo che si è adattato a vivere nell'ambiente ostile dello stomaco umano. Molteplici sono i fattori di virulenza che permettono al batterio la colonizzazione della nicchia gastrica e contribuiscono, anche attraverso l' induzione di una risposta infiammatoria, a profonde modificazioni dell' omeostasi gastrica. Queste ultime si associano, ad esempio, all'iperproduzione di fattori proinfiammatori, ad alterazioni sia della regolazione della secrezione acida gastrica sia del ciclo cellulare e della morte cellulare programmata (apoptosi) delle cellule epiteliali gastriche, a disordini nel metabolismo del ferro e a carenze di elementi essenziali. Studi sulla diversità genetica di H. pylori osservata in ceppi isolati da varie regioni del mondo, dimostrano che tale batterio ha avuto una coevoluzione col genere umano attraverso la storia, ed è verosimile che H. pylori sia stato un costituente del microbiota gastrico per almeno 50.000 anni. Scopo della tesi è stato quello di identificare e caratterizzare proteine importanti per la colonizzazione e l'adattamento di H. pylori alla nicchia gastrica. In particolare gli sforzi si sono concentrati su due proteine periplasmatiche, la prima coinvolta nella difesa antiossidante (l'enzima catalasi-like, HP0485), e la seconda nel trasporto di nutrienti presenti nell'ambiente dello stomaco all'interno della cellula (la componente solubile di un ABC transporter, HP0298). La strategia utilizzata prevede un'analisi bioinformatica preliminare, l'ottenimento del gene per amplificazione, mediante PCR, dal genoma dell'organismo, la costruzione di un vettore per il clonaggio, l'espressione eterologa in E. coli e la successiva purificazione. La proteina così ottenuta viene caratterizzata mediante diverse tecniche, quali spettroscopia UV, dicroismo circolare, gel filtrazione analitica, spettrometria di massa. Il capitolo 1 contiene un'introduzione generale sul batterio, il capitolo 2 e il capitolo 3 descrivono gli studi relativi alle due proteine e sono entrambi suddivisi in un abstract iniziale, un'introduzione, la presentazione dei risultati, la discussione di questi ultimi, i materiali e i metodi utilizzati. La catalasi-like (HP0485) è una proteina periplasmatica con struttura monomerica, appartenente ad una famiglia di enzimi a funzione per la maggior parte sconosciuta, ma evolutivamente correlati alla ben nota catalasi, attore fondamentale nella difesa di H. pylori, grazie alla sua azione specifica di rimozione dell'acqua ossigenata. HP0485, pur conservando il fold catalasico e il legame al cofattore eme, non può compiere la reazione di dismutazione dell'acqua ossigenata; possiede invece un'attività perossidasica ad ampio spettro, essendo in grado di accoppiare la riduzione del perossido di idrogeno all'ossidazione di diversi substrati. Come la catalasi, lavora ad alte concentrazioni di aqua ossigenata e non arriva a saturazione a concentrazioni molto elevate di questo substrato (200 mM); la velocità di reazione catalizzata rimane lineare anche a questi valori, aspetto che la differenzia dalle perossidasi che vengono in genere inattivate da concentrazioni di perossido di idrogeno superiori a 10-50 mM. Queste caratteristiche di versatilità e robustezza suggeriscono che la catalasi-like abbia un ruolo di scavenger dell'acqua ossigenata e probabilmente anche un'altra funzione connessa al suo secondo substrato, ossia l'ossidazione di composti nello spazio periplasmatico cellulare. Oltre alla caratterizzazione dell'attività è descritta anche la presenza di un ponte disolfuro, conservato nelle catalasi-like periplasmatiche, con un ruolo nell'assemblaggio dell'eme per ottenere un enzima attivo e funzionale. La proteina periplasmatica HP0298, componente di un sistema di trasporto ABC, è classificata come trasportatore di dipeptidi e appartiene a una famiglia di proteine in grado di legare diversi substrati, tra cui di- e oligopeptidi, nichel, eme, glutatione. Benchè tutte associate a trasportatori di membrana batterici, queste proteine presentano un dominio di legame al substrato che risulta essere conservato nei domini extracellulari di recettori specifici di mammifero e uomo. Un esempio sono i recettori ionotropici e metabotropici del sistema nervoso. Per caratterizzare questa proteina è stato messo a punto un protocollo di ligand-fishing accoppiato alla spettrometria di massa. La proteina purificata, avente un tag di istidine, è stata incubata con un estratto cellulare di H. pylori per poter interagire con il suo substrato specifico all'interno dell'ambiente naturale in cui avviene il legame. Il complesso proteina-ligando è stato poi purificato per cromatografia di affinità e analizzato mediante HPLC-MS. L'identificazione dei picchi differenziali tra campioni con la proteina e 5 campioni di controllo ha portato alla caratterizzazione di pentapeptidi particolarmente ricchi in aminoacidi idrofobici e con almeno un residuo carico negativamente. Considerando che H. pylori necessita di alcuni aminoacidi essenziali, per la maggior parte idrofobici, e che lo stomaco umano è particolarmente ricco di peptidi prodotti dalla digestione delle proteine introdotte con il cibo, il ruolo fisiologico di HP0298 potrebbe essere l'internalizzazione di peptidi, con caratteristiche specifiche di lunghezza e composizione, che sono naturalmente presenti nella nicchia gastrica.
Resumo:
Lo studio delle regioni più interne degli ammassi globulari risulta fondamentale per la ricerca di buchi neri di massa intermedia (IMBH). La scoperta di tali oggetti avrebbe un impatto sostanziale su un gran numero di problemi astrofisici aperti, dalla formazione dei buchi neri supermassicci, all'interpretazione delle Ultra Luminous X-ray Sources, fino allo studio delle onde gravitazionali. Il presente lavoro di tesi si inserisce all'interno di un progetto osservativo mirato a studiare la dinamica interna degli ammassi globulari e volto ad investigare la presenza di IMBH nel centro di tali sistemi tramite l'analisi sistematica dei profili di dispersione di velocità e di rotazione. In questo elaborato presentiamo lo studio della cinematica del core dell'ammasso globulare NGC 6266, realizzato con lo spettrografo a campo integrale IFU-SINFONI, assistito da un sistema di ottiche adattive. Grazie all'utilizzo dell'ottica adattiva, SINFONI è in grado di realizzare osservazioni ad alta risoluzione spaziale e misurare la velocità radiale di stelle individuali anche nelle regioni più interne degli ammassi globulari, dove le misure spettroscopiche tradizionali falliscono a causa dell'elevato crowding stellare. Questo ci ha permesso di determinare il profilo centrale della dispersione di velocità di NGC 6266 dalla misura delle velocità radiali individuali di circa 400 stelle, localizzate negli 11 arcsec più interni dell'ammasso. Utilizzando dati complementari, provenienti da osservazioni realizzate con lo spettrografo multi-oggetto FLAMES, siamo stati in grado di costruire il profilo di dispersione di velocità di NGC 6266 fino ad una distanza radiale di 250 arcsec. Il profilo di dispersione di velocità osservato permette di escludere la presenza di un IMBH di massa superiore a 2500 masse solari e mostra un calo nella regione centrale, simile a quello rilevato in un numero crescente di ammassi globulari, che potrebbe indicare la presenza di anisotropia tangenziale.
Resumo:
Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.
Resumo:
Lo scopo di questa tesi triennale è quello di fornire un'introduzione ad alcuni concetti della computazione quantistica e comprenderne i fenomeni fisici che ne stanno alla base, dall'idea astratta di qubit fino ai più recenti studi sui centri NV, passando attraverso appropriati strumenti matematici. Recentemente si è realizzato che l'uso delle proprietà della meccanica quantistica può migliorare drasticamente le velocità di calcolo. È quindi cresciuto l'interesse nel campo dell'informazione quantistica. Tra le principali difficoltà vi è il fenomeno della decoerenza, responsabile della distruzione degli stati di sovrapposizione quanto-meccanici. Studiamo la dinamica dei sistemi quantistici aperti, soffermandoci sugli aspetti della loro evoluzione rilevanti nel passaggio dal mondo quantico al classico. A tal fine, e per una migliore comprensione della decoerenza, ricaviamo l'equazione master cui deve obbedire la matrice di densità nel noto modello di Jaynes-Cummings per l'interazione ambiente-sistema. In particolare, descriviamo come un ristretto set di manipolazioni sul sistema ci permetta di proteggerlo dalla decoerenza e come tale tecnica, detta disaccoppiamento dinamico, si rivela un utile strumento per la realizzazione di gates quantistici nel caso dei qubit implementati sfruttando i cosiddetti centri NV del diamante.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Synchronization is a key issue in any communication system, but it becomes fundamental in the navigation systems, which are entirely based on the estimation of the time delay of the signals coming from the satellites. Thus, even if synchronization has been a well known topic for many years, the introduction of new modulations and new physical layer techniques in the modern standards makes the traditional synchronization strategies completely ineffective. For this reason, the design of advanced and innovative techniques for synchronization in modern communication systems, like DVB-SH, DVB-T2, DVB-RCS, WiMAX, LTE, and in the modern navigation system, like Galileo, has been the topic of the activity. Recent years have seen the consolidation of two different trends: the introduction of Orthogonal Frequency Division Multiplexing (OFDM) in the communication systems, and of the Binary Offset Carrier (BOC) modulation in the modern Global Navigation Satellite Systems (GNSS). Thus, a particular attention has been given to the investigation of the synchronization algorithms in these areas.
Resumo:
Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.
Resumo:
Il cancro batterico dell’actinidia causato da Pseudomonas syringae pv.actinidiae (Psa) suscita grande interesse a livello globale a partire dal 2008. La malattia è comparsa in Giappone e in due anni ha avuto una diffusione epidemica in tutte le aree di coltivazione mondiale di actinidia. Gravi perdite economiche hanno attirato l’attenzione internazionale su questa problematica e grandi sforzi sono stati rivolti allo studio di questo patosistema ancora poco conosciuto. E’ emerso infatti che il patogeno può rimanere in fase latente per lunghi periodi senza causare sintomi caratteristici nelle piante infette, e che dalla comparsa dei sintomi la pianta muore nell’arco di un paio d’anni. Il monitoraggio ed il controllo della situazione è perciò di fondamentale importanza ed è ancora più importante prevenire la comparsa di nuovi focolai di infezione. A questo proposito sarebbe opportuno l’impiego di materiale vegetale di propagazione non infetto, ma in molti casi questo diventa difficile, dal momento che il materiale impiegato è generalmente quello asintomatico, non analizzato precedentemente per la presenza del patogeno. Negli ultimi anni sono state perciò messe a punto molte tecniche molecolari per l’identificazione di Psa direttamente da materiale vegetale. L’obiettivo di questo lavoro è stato quello di studiare l’epidemiologia di Psa in piante adulte infette e di verificare l’efficacia di metodi di diagnosi precoce per prevenire la malattia. A tale scopo il lavoro sperimentale è stato suddiviso in diverse fasi: i) studio della localizzazione, traslocazione e sopravvivenza di Psa nelle piante, a seguito di inoculazione in piante adulte di actinidia di ceppi marcati Psa::gfp; ii) studio della capacità di Psa di essere mantenuto in germogli di actinidia attraverso sette generazioni di micropropagazione dopo l’inoculazione delle piante madri con lo stesso ceppo marcato Psa::gfp; iii) studio ed applicazioni di un nuovo metodo di diagnosi precoce di Psa basato sull’analisi molecolare del “pianto”.
Resumo:
L’Alpha Magnetic Spectrometer (AMS-02) é un rivelatore per raggi cosmici (CR) progettato e costruito da una collaborazione internazionale di 56 istituti e 16 paesi ed installato il 19 Maggio del 2011 sulla Stazione Spaziale Internazionale (ISS). Orbitando intorno alla Terra, AMS-02 sará in grado di studiare con un livello di accuratezza mai raggiunto prima la composizione dei raggi cosmici, esplorando nuove frontiere nella fisica delle particelle, ricercando antimateria primordiale ed evidenze indirette di materia oscura. Durante il mio lavoro di tesi, ho utilizzato il software GALPROP per studiare la propagazione dei CR nella nostra Galassia attraverso il mezzo interstellare (ISM), cercando di individuare un set di parametri in grado di fornire un buon accordo con i dati preliminari di AMS-02. In particolare, mi sono dedicata all’analisi del processo di propagazione di nuclei, studiando i loro flussi e i relativi rapporti. Il set di propagazione ottenuto dall’analisi é stato poi utilizzato per studiare ipotetici flussi da materia oscura e le possibili implicazioni per la ricerca indiretta attraverso AMS-02.
Resumo:
Questa tesi si concentra sulle traduzioni italiane del classico in lingua inglese The Secret Garden (1911) di Frances Hodgson Burnett, con particolare attenzione all'uso della lingua e all'evoluzione della prassi traduttiva. Nella prima parte di questa tesi ho approfondito temi di natura teorica, quali la sfuggente e complessa definizione di letteratura per l'infanzia, la sua duplice appartenenza al sistema letterario e a quello pedagogico, e le peculiarità della sua traduzione. Inoltre ho presentato un excursus sulla storia di questo genere letterario, con particolare attenzione alla scena italiana e all'opera di propagazione della lingua portata avanti dai libri per ragazzi. Tali basi teoriche sono state necessarie allo scopo di inquadrare il romanzo in una cornice definita e utile in riferimento all'analisi e alla comparazione delle sue traduzioni. Il corpus delle traduzioni scelte consiste nei lavori di: Maria Ettlinger Fano (1921), Angela Restelli Fondelli (1956), F. Ghidoni (1973), Giorgio van Straten (1992) e Beatrice Masini (2013). Di ciascuna opera ho dato una descrizione generale, per poi concentrarmi sugli snodi traduttivi principali: da un lato i problemi di mediazione culturale come l'onomastica, i cibi, le lingue non standard nel testo originale, la religione e così via; dall'altro le soluzioni linguistiche adottate. Al fine di presentare e comparare questi parametri, ho portato a supporto i passaggi delle diverse traduzioni significativi in tal senso. Ho concluso con alcune considerazioni finali sull'evoluzione delle traduzioni italiane di The Secret Garden, viste attraverso l'ottica del rapporto fra adulti (traduttore, editore, educatori, genitori...) e lettore bambino.
Resumo:
L'argomento di questa tesi è l'architettura di rete Delay-/Disruption-Tolerant Networking (DTN), progettata per operare nelle reti “challenged”, dove la suite di protocolli TCP/IP risulta inefficace a causa di lunghi ritardi di propagazione del segnale, interruzioni e disturbi di canale, ecc. Esempi di reti “challenged” variano dalle reti interplanetarie alle Mobile Ad-Hoc Networks (MANETs). Le principali implementazioni dell'architettura DTN sono DTN2, implementazione di riferimento, e ION, sviluppata da NASA JPL per applicazioni spaziali. Una grande differenza tra reti spaziali e terrestri è che nello spazio i movimenti dei nodi sono deterministici, mentre non lo sono per i nodi mobili terrestri, i quali generalmente non conoscono la topologia della rete. Questo ha portato allo sviluppo di diversi algoritmi di routing: deterministici per le reti spaziali e opportunistici per quelle terrestri. NASA JPL ha recentemente deciso di estendere l'ambito di applicazione di ION per supportare anche scenari non deterministici. Durante la tesi, svolta presso NASA JPL, mi sono occupato di argomenti diversi, tutti finalizzati a questo obiettivo. Inizialmente ho testato la nuova implementazione dell'algoritmo IP Neighbor Discovery (IPND) di ION, corretti i bug e prodotta la documentazione ufficiale. Quindi ho contribuito ad integrare il Contact Graph Routing (CGR) di ION nel simulatore DTN “ONE” utilizzando la Java Native Interface (JNI) come ponte tra il codice Java di ONE e il codice C di ION. In particolare ho adattato tutte le librerie di ION necessarie per far funzionare CGR all'interno dell'ambiente di ONE. Infine, dopo aver analizzato un dataset di tracce reali di nodi mobili, ho contribuito a progettare e a sviluppare OCGR, estensione opportunistica del CGR, quindi ne ho curato l'integrazione in ONE. I risultati preliminari sembrano confermare la validità di OCGR che, una volta messo a punto, può diventare un valido concorrente ai più rinomati algoritmi opportunistici.