594 resultados para THz,attenuazione,assorbimento molecolare,propagazione ad alte frequenze,modello di propagazione
Resumo:
Gli spazi di Teichmuller nacquero come risposta ad un problema posto diversi anni prima da Bernhard Riemann, che si domandò in che modo poter parametrizzare le strutture complesse supportate da una superficie fissata; in questo lavoro di tesi ci proponiamo di studiarli in maniera approfondita. Una superficie connessa, orientata e dotata di struttura complessa, prende il nome di superficie di Riemann e costituisce l’oggetto principe su cui si basa l’intero studio affrontato nelle pagine a seguire. Il teorema di uniformizzazione per le superfici di Riemann permette di fare prima distinzione netta tra esse, classificandole in superfici ellittiche, piatte o iperboliche. Due superfici di Riemann R ed S si dicono equivalenti se esiste un biolomorfismo f da R in S, e si dice che hanno la stessa struttura complessa. Certamente se le due superfici hanno genere diverso non possono essere equivalenti. Tuttavia, se R ed S sono superfci con lo stesso genere g ma non equivalenti, è comunque possibile dotare R di una struttura complessa, diversa dalla precedente, che la renda equivalente ad S. Questo permette di osservare che R è in grado di supportare diverse strutture complesse non equivalenti tra loro. Lo spazio di Teichmuller Tg di R è definito come lo spazio che parametrizza tutte le strutture complesse su R a meno di biolomorfismo. D’altra parte ogni superficie connessa, compatta e orientata di genere maggiore o uguale a 2 è in grado di supportare una struttura iperbolica. Il collegamento tra il mondo delle superfici di Riemann con quello delle superfici iperboliche è stato dato da Gauss, il quale provò che per ogni fissata superficie R le metriche iperboliche sono in corrispondenza biunivoca con le strutture complesse supportate da R stessa. Questo teorema permette di fornire una versione della definizione di Tg per superfici iperboliche; precisamente due metriche h1, h2 su R sono equivalenti se e soltanto se esiste un’isometria φ : (R, h1 ) −→ (R, h2 ) isotopa all’identità. Pertanto, grazie al risultato di Gauss, gli spazi di Teichmuller possono essere studiati sia dal punto di vista complesso, che da quello iperbolico.
Resumo:
Questo elaborato nasce da una grande passione per quello che è il mondo arabo in generale e un interesse particolare per la Tunisia, in seguito a un viaggio in quel paese. Mi sono interessata a questo argomento, in seguito a un viaggio effettuato a Tunisi, durante l'estate 2012, dove ho frequentato un corso di lingua araba presso l’università di lingue, di H. Bourguiba di Tunisi. E stata un'esperienza davvero forte e istruttiva. Un mese non è molto tempo, e appena ci si ambienta è già tempo di ritornare a casa, ma si riesce comunque ad avere uno squarcio di quella che è la cultura tunisina, molto accogliente, e fiera del proprio paese. Durante questo viaggio, sono entrata in contatto con molte persone, donne, giovani, anziani, e avevano tutti un punto in comune, erano tutti curiosi di sapere (soprattutto i giovani) cosa pensava l'Europa della rivoluzione, attuata un anno prima. I giovani erano fieri di essere riusciti a cacciare il presidente, mentre tra i più grandi le opinioni erano molto contrastate tra loro. Molti si lamentavano dell'ascesa del potere religioso, mentre altri denunciavano peggiori condizioni economiche e di vita. In quel momento era passato soltanto un anno e mezzo da quando il Presidente diede le dimissioni, e il processo di transizione era in pieno subbuglio. Da allora, sono passati due anni e la situazione socio-politica si è evoluta e cambiata e forse nemmeno ancora stabilizzata completamente.
Resumo:
Questo lavoro riguarda la sintesi e caratterizzazione di nanoparticelle basate sul magnesio per l'immagazzinamento di idrogeno. Le nanoparticelle sono state cresciute mediante Inert Gas Condensation, una tecnica aerosol in cui il materiale viene sublimato e diretto verso i substrati tramite un flusso di gas inerte, e caratterizzate attraverso microscopia elettronica e diffrazione di raggi X. Queste operazioni sono state eseguite presso il Dipartimento di Fisica e Astronomia dell'Università di Bologna. Sono stati sintetizzati due tipi di particelle: nel primo il magnesio viene deposto direttamente sul substrato, nel secondo esso incontra un flusso di ossigeno prima di depositarsi sulla superficie. In questo modo si formano delle particelle con struttura core-shell in cui la parte interna è formata da magnesio e quella esterna dal suo ossido. La presenza di una shell consistente dovrebbe permettere, secondo il modello di deformazioni elastiche, di diminuire il valore assoluto dell'entropia di formazione dell'idruro di magnesio, condizione necessaria affinché il desorbimento di idrogeno possa avvenire in maniera più agevole rispetto a quanto non accada col materiale bulk. Tutti i campioni sono stati ricoperti di palladio, il quale favorisce la dissociazione della molecola di idrogeno. La capacità di assorbimento dell'idrogeno da parte dei campioni è stata studiata mediante idrogenografia, una tecnica ottica recentemente sviluppata in cui la quantità di gas assorbita dal materiale è legata alla variazione di trasmittanza ottica dello stesso. Le misure sono state eseguite presso l'Università Tecnica di Delft. I risultati ottenuti evidenziano che le nanoparticelle di solo magnesio mostrano dei chiari plateau di pressione corrispondenti all'assorbimento di idrogeno, tramite cui sono stati stimati i valori di entalpia di formazione. Al contrario, i campioni con struttura core-shell, la cui crescita rappresenta di per sé un risultato interessante, non presentano tale comportamento.
Resumo:
Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .
Resumo:
Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).
Resumo:
Il fenomeno della magnetoresistenza gigante (GMR) consiste nella marcata variazione della resistenza elettrica di una struttura in forma di film sottile, composta da un’alternanza di strati metallici ferromagnetici (FM) e non magnetici (NM), per effetto di un campo magnetico esterno. Esso è alla base di un gran numero di sensori e dispositivi magnetoelettronici (come ad esempio magnetiche ad accesso casuale, MRAM, ad alta densità) ed ulteriori innovazioni tecnologiche sono in via di elaborazione. Particolarmente rilevanti sono diventate le Spin Valve, dispositivi composti da due strati FM separati da uno spaziatore NM, metallico. Uno dei due film FM (free layer) è magneticamente più soffice rispetto all’altro (reference layer), la cui magnetizzazione è fissata mediante accoppiamento di scambio all’interfaccia con uno strato antiferromagnetico (AFM) adiacente. Tale accoppiamento causa l’insorgenza di una anisotropia magnetica unidirezionale (anisotropia di scambio) per lo strato FM, che si manifesta in uno shift orizzontale del ciclo di isteresi ad esso associato (effetto di exchange bias), solitamente accompagnato anche da un aumento del campo coercitivo. Questo lavoro di tesi riporta la deposizione e la caratterizzazione magnetica e magnetoresistiva di due valvole spin, una a struttura top (SVT) composta da strati di Si/Cu[5 nm]/Py[5 nm]/Cu[5 nm]/Py[5 nm]/IrMn[10 nm], ed una a struttura bottom (SVB), di composizione Si/Cu[5 nm]/IrMn[10 nm]/Py[5 nm]/Cu[5 nm]/Py[5 nm], allo scopo di verificare il comportamento magnetoresistivo gigante del dispositivo per questa particolare scelta dei materiali. I campioni sono stati depositati mediante DC Magnetron sputtering, e caratterizzati magneticamente mediante magnetometro SQUID; la caratterizzazione resistiva è stata eseguita tramite metodo di van der Pawn. Vengono infine presentati i risultati sperimentali, in cui si osserva una variazione di magnetoresistenza nei campioni nell’ordine del punto percentuale.
Resumo:
L'obiettivo di questa tesi è studiare la fattibilità dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalità e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH è particolarmente interessante, soprattutto perchè rappresenta l'unica opportunità di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi è cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sarà eventualmente coinvolto in questo studio. Nel Capitolo 1 è introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 è dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 è presentato e discusso uno studio di fattibilità per un'analisi del canale ttH in termini di efficienza di selezione.
Resumo:
Il modello di Bondi rappresenta il modello di accrescimento più semplice, in quanto studia l'accrescimento su un BH isolato immerso in una distribuzione di gas infinita. In questa semplice trattazione puramente idrodinamica vengono trascurati molti aspetti importanti, come ad esempio il momento angolare, il campo magnetico, gli effetti relativistici, ecc. L'obiettivo di questa Tesi consiste nell'affinare tale modello aggiungendo alcune nuove componenti. In particolare, vogliamo studiare come queste nuove componenti possano influire sul tasso di accrescimento della materia. Dopo una Introduzione (Capitolo 1), nel Capitolo 2 viene presentato il modello di Bondi originale, con lo scopo di ricostruire il procedimento matematico che porta alla soluzione e di verificare il funzionamento del codice numerico scritto per la soluzione dell'equazione di Bondi finale. Tuttavia, il modello di accrescimento sferico stazionario tratta il potenziale gravitazionale di un oggetto puntiforme isolato, mentre in questo lavoro di Tesi si vogliono considerare i BH che si trovano al centro delle galassie. Pertanto, nel Capitolo 3 è stata rivisitata la trattazione matematica del problema di Bondi aggiungendo alle equazioni il potenziale gravitazionale prodotto da una galassia con profilo di densità descritto dal modello di Hernquist. D'altronde, ci si aspetta che l'energia potenziale gravitazionale liberata nell'accrescimento, almeno parzialmente, venga convertita in radiazione. In regime otticamente sottile, nell'interazione tra la radiazione e la materia, domina l'electron scattering, il che permette di estendere in maniera rigorosa la trattazione matematica del problema di Bondi prendendo in considerazione gli effetti dovuti alla pressione di radiazione. Infatti, in un sistema a simmetria sferica la forza esercitata dalla pressione di radiazione segue l'andamento "1/r^2", il che comporta una riduzione della forza gravitazionale della stessa quantità per tutti i raggi. Tale argomento rappresenta l'oggetto di studio del Capitolo 4. L'idea originale alla base di questo lavoro di Tesi, che consiste nell'unire i due modelli sopra descritti (ossia il modello di Bondi con la galassia e il modello di Bondi con feedback radiativo) in un unico modello, è stata sviluppata nel Capitolo 5. Utilizzando questo nuovo modello abbiamo cercato di determinare delle "ricette" per la stima del tasso di accrescimento, da utilizzare nell'analisi dei dati osservativi oppure da considerare nell'ambito delle simulazioni numeriche. Infine, nel Capitolo 6 abbiamo valutato alcune applicazioni del modello sviluppato: come una possibile soluzione al problema di sottoluminosità dei SMBH al centro di alcune galassie dell'universo locale; per la stima della massa del SMBH imponendo la condizione di equilibrio idrostatico; un possibile impiego dei risultati nell'ambito dei modelli semi-analitici di coevoluzione di galassie e SMBH al centro di esse.
Resumo:
I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.
Resumo:
Oggigiorno, la maggior parte della popolazione trascorre buona parte della giornata all’interno di edifici, e sempre di più sono le applicazioni che, anche in ambiente indoor, necessitano di accedere ad informazioni relative alla posizione. Tuttavia, mentre per quanto riguarda il posizionamento in ambiente outdoor il GPS è ormai uno standard de facto, in ambiente indoor il segnale satellitare risulta scarso se non inesistente, e non riesce dunque ad incontrare le necessità di grande precisione richieste. La ricerca di un efficiente sistema di posizionamento indoor è dunque un problema che richiede una rapida soluzione. L’obiettivo di questa tesi è illustrare i principi alla base del posizionamento, e fornire alcune soluzioni al problema del posizionamento indoor.
Resumo:
Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.
Resumo:
Questa tesi ha come oggetto di studio i problemi riscontrati nelle trascrizioni di testi orali in lingua inglese prodotte da 39 studenti della laurea magistrale in Interpretazione. Nel Capitolo 1 viene presentato l’ascolto, che viene definito prima da un punto di vista storico, poi analizzato come processo composto da quattro fasi, come sostiene Michael Rost (2011). Il capitolo si conclude con l’ascolto nell’ambito dell’interpretazione. Nel Capitolo 2 viene analizzato in maniera contrastiva l’apprendimento dell’ascolto nella prima e nella seconda lingua. I primi due capitoli forniscono le basi per comprendere il caso di studio. Il Capitolo 3 concerne la metodologia dello studio. Vengono presentati il metodo di analisi delle trascrizioni, la categorizzazione dei problemi riscontrati e il processo di creazione del sistema di analisi utilizzato. Nel Capitolo 4 vengono presentati i dati ottenuti seguendo il metodo esposto nel Capitolo 3. Si presentano i problemi riscontrati, che vengono suddivisi in categorie in base a ciò che può averli causati. Il Capitolo 5 è dedicato alle conclusioni. Qui vengono suggerite possibili strategie mirate ad aiutare gli studenti di Interpretazione a migliorare le proprie capacità di ascolto in lingua inglese. Esta tesis quiere analizar los problemas encontrados en transcripciones de textos orales en inglés hechas por 39 estudiantes del máster en Interpretación. En el Capítulo 1 se presenta la escucha, que se define primero desde una perspectiva histórica, y luego como un proceso formado por cuatro fases, como argumenta Michael Rost (2011). El capítulo se cierra con la escucha en el ámbito de la interpretación. En el Capítulo 2 se analizan de forma contrastiva el aprendizaje de la escucha en la primera y segunda lengua. Los primeros dos capítulos constituyen la base para comprender el caso de estudio. El Capítulo 3 atañe a la metodología del estudio. Se presentan el método de análisis de las transcripciones, la categorización de los problemas encontrados y el proceso de creación del sistema de análisis que se ha empleado. En el Capítulo 4 se proporcionan los datos obtenidos gracias al método presentado en el Capítulo 3. Se presentan los problemas encontrados, que han sido divididos en categorías según qué puede haberlos ocasionado. El Capítulo 5 está dedicado a las conclusiones. Aquí se sugieren posibles estrategias cuyo objetivo es ayudar a los estudiantes de Interpretación a mejorar sus capacidades de escucha en inglés.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Lo studio dell’utilizzo dell’habitat, sebbene ci dia principalmente informazioni di come gli organismi interagiscono con esso o indirettamente tra di loro, è un aspetto molto importante dell’ecologia sia terrestre che marina in quanto può essere utilizzato per scopi conservativi ma anche per uno sviluppo di quello che può essere un turismo legato alla presenza di tali organismi. Scopo del presente lavoro è verificare come la presenza di un predatore come lo squalo bianco possa modificare la distribuzione dei delfinidi nell’area di Mossel Bay, Sudafrica. A tal fine si sono analizzati i dati relativi alle presenze di squalo bianco e di delfinidi per un periodo di circa un anno e si sono analizzate le distribuzioni delle specie considerate e le eventuali sovrapposizioni, per valutare come le due specie interagiscono e si influenzano a vicenda. Da quanto osservato nella presente ricerca si può concludere che le specie di cetacei considerate adottino una strategia di avoidance dagli squali basata principalmente sull’utilizzo di acque a profondità diversa rispetto a quelle utilizzate dagli elasmobranchi. L’aver considerato la batimetria come parametro di discriminazione tra le specie ha evitato di valutare in maniera non corretta le distribuzioni delle stesse, in quanto ha fornito una sorta di terza dimensione che ha permesso di dettagliare meglio la stratificazione nella colonna d’acqua delle specie considerate. L’analisi effettuata ha interessato i dati relativi ad un solo anno di monitoraggio, e quindi non possono essere presi come riferimento assoluto per valutare la reale distribuzione delle specie considerate. Può però essere ritenuta un primo step per meglio comprendere quali siano le strategie difensive messe in atto dai cetacei nei confronti degli attacchi da squalo e, con ulteriori analisi e monitoraggi, quali invece possono essere le strategie attuate dagli elasmobranchi.