999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato propone una riflessione rispetto all’atto giuridico del consenso informato quale strumento garante dell’esercizio del diritto alla salute per i migranti. Attraverso una riflessione antropologica rispetto alla natura, alla costruzione e alla logica dei diritti universali, verranno analizzate le normative nazionali, europee ed internazionali a tutela del diritto alla salute per i migranti; l’obiettivo della ricerca è indagare l’eventuale scarto tra normative e politiche garantiste nei confronti della salute migrante e l’esistenza di barriere strutturali che impediscono un pieno esercizio del diritto alla salute. L’ipotesi di ricerca si basa sulla reale capacità performativa del consenso informato, proposto solitamente sia come strumento volto ad assicurare la piena professionalità dell’operatore sanitario nell’informare il paziente circa i rischi e i benefici di un determinato trattamento sanitario, sia come garante del principio di autonomia. La ricerca, attraverso un’analisi quanti-qualitativa, ha interrogato il proprio campo, rappresentato da un reparto di ginecologia ed ostetrica, rispetto alle modalità pratiche di porre in essere la firma nei moduli del consenso informato, con particolare attenzione alle specificità proprie delle pazienti migranti. Attraverso l’osservazione partecipante è stato quindi possibile riflettere su aspetti rilevanti, quali le dinamiche quotidiane che vengono a crearsi tra personale sanitario e pazienti, le caratteristiche e i limiti del servizio di mediazione sanitaria, le azioni pratiche della medicina difensiva. In questo senso il tema del “consenso informato”, indagato facendo interagire discipline quali l’antropologia, la bioetica, la filosofia e la sociologia, si è posto sia come lente di lettura privilegiata per comprendere le dinamiche relazionali ad oggi esistenti tra professionisti sanitari e popolazione migrante, ancora vittima di diseguaglianze strutturali, ma altresì come “innesco potenziale” di nuove modalità di intendere la relazione medico-paziente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I dati derivanti da spettroscopia NMR sono l'effetto di fenomeni descritti attraverso la trasformata di Laplace della sorgente che li ha prodotti. Ci si riferisce a un problema inverso con dati discreti ed in relazione ad essi nasce l'esigenza di realizzare metodi numerici per l'inversione della trasformata di Laplace con dati discreti che è notoriamente un problema mal posto e pertanto occorre ricorrere a metodi di regolarizzazione. In questo contesto si propone una variante ai modelli presenti il letteratura che fanno utilizzo della norma L2, introducendo la norma L1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio ha consentito la valutazione delle potenzialità di utilizzo di informazioni telerilevate da satellite, al fine di ottenere un DEM utilizzabile per simulazioni numerico - idrauliche. In particolare è stato utilizzato il DEM a scala globale fornito dalla missione SRTM (Shuttle Radar Topography Mission), per acquisire la geometria del tratto medio inferiore del fiume Po. Ottenuto l'andamento plano altimetrico del corso d'acqua sono state effettuate simulazioni in condizioni di piena eccezionale e deflusso medio allo scopo di valutarne affidabilità e precisione. Vengono infine proposti tre metodi di modifica della geometria, fornita da SRTM, in modo tale da migliorare la rappresentazione dell'alveo di magra ed incrementarne le performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso degli ultimi anni le problematiche legate al ruolo vettore delle zanzare stanno emergendo sia per quanto riguarda l’uomo che gli animali allevati e selvatici. Diversi arbovirus come West Nile, Chikungunya, Usutu e Dengue, possono facilmente spostarsi a livello planetario ed essere introdotti anche nei nostri territori dove possono dare avvio a episodi epidemici. Le tecniche di monitoraggio e sorveglianza dei Culicidi possono essere convenientemente utilizzate per il rilevamento precoce dell’attività virale sul territorio e per la stima del rischio di epidemie al fine dell’adozione delle opportune azioni di Sanità Pubblica. Io scopo della ricerca del dottorato è inserito nel contesto dei temi di sviluppo del Piano regionale sorveglianza delle malattie trasmesse da vettori in Emilia Romagna. La ricerca condotta è inquadrata prevalentemente sotto l’aspetto entomologico applicativo di utilizzo di dispositivi (trappole) che possano catturare efficacemente possibili insetti vettori. In particolare questa ricerca è stata mirata allo studio comparativo in campo di diversi tipi di trappole per la cattura di adulti di zanzara, cercando di interpretare i dati per capire un potenziale valore di efficacia/efficienza nel rilevamento della circolazione virale e come supporto alla pianificazione della rete di sorveglianza dal punto di vista operativo mediante dispositivi adeguati alle finalità d’indagine. Si è cercato di trovare un dispositivo idoneo, approfondendone gli aspetti operativi/funzionali, ai fini di cattura del vettore principale del West Nile Virus, cioè la zanzara comune, da affiancare all’unica tipologia di trappola usata in precedenza. Le prove saranno svolte sia in campo che presso il laboratorio di Entomologia Medica Veterinaria del Centro Agricoltura Ambiente “G. Nicoli” di Crevalcore, in collaborazione con il Dipartimento di Scienze e Tecnologie Agroambientali della Facoltà di Agraria dell’Università di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi ha riguardato lo studio numerico con un modello 3D dell' interazione tra lo scavo di una galleria urbana e un edificio esistente in muratura, la Stazione di Ferrara Porta Reno (risalente ai primi del '900). A tale scopo è stato utilizzato il programma di calcolo agli elementi finiti Plaxis 3D. Nello studio numerico, per il terreno è stato adottato un modello costitutivo avanzato elasto-plastico con incrudimento isotropo, l’Hardening soil model with small strain stiffness, mentre per la muratura e stato utilizzato il criterio di Mohr-Coulomb. Inoltre, lo scavo della galleria è stato simulato con una procedura per passi, tenendo in conto i principali aspetti del processo. La subsidenza in superficie è stata controllata applicando una contrazione fittizia lungo lo scudo. E’ stata svolta un'analisi numerica in condizione di campo libero, ossia in assenza di strutture, al fine di valutare i movimenti del terreno indotti dal processo di scavo; successivamente sono state eseguite diverse analisi accoppiate, in condizioni di simmetria e con eccentricità della costruzione rispetto all'asse della galleria, per studiare il complesso fenomeno di interazione galleria-terreno-struttura. I risultati di tali analisi accoppiate sono stati utilizzati per effettuare una stima del livello di danno atteso per l'edificio. Le analisi numeriche condotte hanno messo in luce, confermando quanto già noto in letteratura, che la presenza di un edificio a piano campagna interagente con l’opera di scavo modifica la forma del profilo dei cedimenti relativa alle condizioni di campo libero. Tale modifica, che dipende dalle specifiche caratteristiche di rigidezza e peso della struttura presa in esame, generalmente si traduce in una riduzione del cedimento differenziale che può influenzare in modo significativo la stima del danno sull’edificio. Ciò è tanto più evidente, quanto maggiore è la perdita di volume indotta dallo scavo della galleria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Ambergris (o Ambra grigia) è usata da secoli per creare profumi di qualità. Essendo una sostanza naturale prodotta nell'intestino dei capodogli non è possibile un approvigionamento continuo e stabile di questa materia prima senza uccidere l'animale. La sostanza responsabile del profumo è (-)-Ambrox e dagli anni '50 in poi sono state studiate vie di sintesi che non coinvolgessero lo sfruttamento di animali. In queesta tesi abbiamo cercato una via sintetica alternativa, di questa sostanza, di facile industrializzazione che prende spunto da un recente brevetto. La sequenza sintetica è stata modificata utilizzando sostanze con bassa tossicità. La reazione procede con il mantenimento della stereochimica del substrato, rendendo questa strategia ottimale anche nel caso in cui si utilizzi un substrato già enantiopuro. Si è dimostrato inoltre che questa reazione porta ad un prodotto finale con elevata purezza adatto ad una eventuale commercializzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato punta a descrivere i nuovi sistemi di pagamento, utilizzati al giorno d'oggi, l'evoluzione e i cambiamenti, che questi hanno subito nel corso della storia, dal baratto ai giorni nostri. Si cerca inoltre di capire il funzionamento delle tecnologie che si muovono a supporto della moneta elettronica e si individuano le possibili forme di sicurezza, cercando di mettere in guardia i soggetti utilizzatori dei metodi di pagamento, da eventuali frodi comunemente realizzabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è stata studiata l'anisotropia magnetica di film sottili epitassiali di La0.7Sr0.3MnO3 (LSMO), cresciuti con la tecnica Channel Spark Ablation su substrati monocristallini di SrTiO3 (001). L'interesse nei confronti di questi materiali nasce dal fatto che, grazie alla loro proprietà di half-metallicity, sono usati come iniettori di spin in dispositivi per applicazioni in spintronica, l'elettronica che considera elemento attivo per l'informazione non solo la carica elettrica ma anche lo spin dei portatori. Un tipico esempio di dispositivo spintronico è la valvola di spin (un dispositivo costituito da due film ferromagnetici metallici separati da uno strato conduttore o isolante) il cui stato resistivo dipende dall'orientazione relativa dei vettori magnetizzazione (parallela o antiparallela) degli strati ferromagnetici. E’ quindi di fondamentale importanza conoscere i meccanismi di magnetizzazione dei film che fungono da iniettori di spin. Questa indagine è stata effettuata misurando cicli di isteresi magnetica grazie ad un magnetometro MOKE (magneto-optical Kerr effect). Le misure di campo coercitivo e della magnetizzazione di rimanenza al variare dell'orientazione del campo rispetto al campione, permettono di identificare l'anisotropia, cioè gli assi di facile e difficile magnetizzazione. I risultati delle misure indicano una diversa anisotropia in funzione dello spessore del film: anisotropia biassiale (cioè con due assi facili di magnetizzazione) per film spessi 40 nm e uniassiale (un asse facile) per film spessi 20 nm. L'anisotropia biassiale viene associata allo strain che il substrato cristallino induce nel piano del film, mentre l'origine dell'uniassialità trova la giustificazione più probabile nella morfologia del substrato, in particolare nella presenza di terrazzamenti che potrebbero indurre una step-induced anisotropy. Il contributo di questi fattori di anisotropia alla magnetizzazione è stato studiato anche in temperatura.