987 resultados para Turbidito arenoso fino
Resumo:
La ricerca effettuata, analizza in modo razionale ma contestualmente divulgativo, le dinamiche insediative che hanno caratterizzato il paesaggio della Sicilia occidentale dall'occupazione bizantina al dominio da parte dei Normanni ( 535-1194 d.C. circa ). Il volume presenta una chiara raccolta dei documenti e delle fonti letterarie che riguarda gli abitati rurali ed i borghi incastellati della Sicilia occidentale e pone l’interesse sia per la cultura materiale che per la gestione ed organizzazione del territorio. Attraverso i risultati delle attestazioni documentarie, unite alle ricerche archeologiche ( effettuate nel territorio preso in esame sia in passato che nel corso degli ultimi anni ) viene redatto un elenco dei siti archeologici e dei resti monumentali ( aggiornato fino al 2013-14 ) in funzione della tutela, conservazione e valorizzazione del paesaggio. Sulla base dei documenti rinvenuti e delle varie fonti prese in esame ( letterarie, archeologiche, monumentali, toponomastiche ) vengono effettuate alcune considerazioni sull’insediamento sparso, sull’incastellamento, sulle istituzioni e sulla formazione delle civitates. L’indagine svolta, attraverso cui sono stati individuati i documenti e le fonti, comprende anche una parziale ricostruzione topografica dei principali centri abitativi indagati. Per alcune sporadiche strutture medievali, talvolta raffigurate in fortuite stampe del XVI-XVII secolo, è stato possibile, in aggiunta, eseguire un rilievo architettonico. La descrizione degli abitati rurali e dei siti fortificati, infine, è arricchita da una serie di schede in cui vengono evidenziati i siti archeologici, i resti monumentali ed i reperti più interessanti del periodo bizantino, arabo e normanno-svevo della Sicilia occidentale.
Resumo:
La presente tesi si concentra sulla traduzione di parti scelte di Übersetzungstheorien. Eine Einführung, manuale di carattere saggistico ad opera della nota linguista tedesca Radegundis Stolze contenente una spiegazione esaustiva, chiara e dettagliata delle più note teorie divenute oggetto di studio della scienza della traduzione dalla nascita della disciplina fino ai giorni nostri. Punto di partenza dell’elaborato sarà l’analisi del saggio, in cui si tracciano le caratteristiche testuali del genere, sia per quanto riguarda il testo originale tedesco, sia per quanto riguarda quello italiano, in modo da notare le differenze e mettere in evidenza le principali tecniche da prendere in considerazione per la trasmissione del messaggio da un modello all’altro. In seguito sarà effettuata un’analisi del testo di partenza secondo i criteri di Brinker (2010) e Nord (2009) con particolare interesse all’aspetto grammaticale e tematico , al rapporto autore-lettore e agli aspetti interni ed esterni al testo. Sulla base di questa analisi verranno poi indicati gli aspetti più significativi a cui prestare attenzione durante la traduzione e si procederà alla traduzione vera e propria. Questa consta di due testi particolarmente significativi per la teoria della traduzione, rispettivamente il discorso sulla traduzione delle Sacre Scritture di Nida e la spiegazione della Teoria dello skopos di Vermeer e Rice. Alla traduzione vera e propria seguiranno un commento riguardante le principali problematiche incontrate e le tecniche utilizzate di volta in volta per risolverle e un paragrafo conclusivo a riassumere i risultati ottenuti.
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Resumo:
La lingua varia nel corso del tempo sia in maniera autonoma, poiché esposta a vari fattori di cambiamento, sia a causa di scelte concrete imposte dal potere politico. Tali decisioni prese dall’alto prendono il nome di politiche linguistiche e talvolta possono assumere pericolosi risvolti antidemocratici. Molto spesso, infatti, i regimi totalitari fanno leva sulla sfera linguistico-comunicativa per assoggettare il popolo: orientare le scelte linguistiche di una comunità di parlanti equivale di fatto a modificare l’identità della società in questione. Un esempio che fa parte del mondo della letteratura è la logocrazia descritta nelle pagine del romanzo 1984 di George Orwell, in cui il potere politico si impone soprattutto grazie alla creazione di una nuova lingua. Purtroppo, la storia pullula anche di esempi reali e il fascismo rientra pienamente in questa categoria. La politica linguistica fascista mirava a purificare l’italiano eliminando tutti quegli elementi che ne minacciavano l’integrità. In particolare, Mussolini lanciò una campagna contro i prestiti linguistici, che impedivano all’Italia di affermare la propria indipendenza dallo straniero. Uno dei manifesti della lotta ai forestierismi è l’articolo La difesa della lingua italiana scritto nel 1926 dal diplomatico Tommaso Tittoni, in cui l’autore, mosso da patriottismo purista, auspicava l’emanazione di un decreto che regolasse l’uso delle parole straniere. Le tappe storiche dell’accanimento fascista contro gli esotismi sono numerose e spaziano dai primi segni di intolleranza, primo fra tutti il decreto del 1923 che imponeva una tassa quadrupla sulle insegne in lingua straniera, fino ai provvedimenti dei primi anni quaranta, quando i forestierismi furono definitivamente vietati in ambito commerciale e sostituiti da termini corrispondenti italiani proposti dall’Accademia d’Italia.
Resumo:
Introduzione. Il rapido e globale incremento dell’utilizzo dei telefoni cellulari da parte degli adolescenti e dei bambini ha generato un considerevole interesse circa i possibili effetti sulla salute dell’esposizione a campi elettromagnetici a radiofrequenza. Perciò è stato avviato lo studio internazionale caso-controllo Mobi-kids, all’interno del quale si colloca quello italiano condotto in 4 Regioni (Piemonte, Lombardia, Toscana, Emilia-Romagna). Obiettivi. Lo studio ha come obiettivo quello di valutare la stima del rischio degli effetti potenzialmente avversi di queste esposizioni sul sistema nervoso centrale nei bambini e negli adolescenti. Materiali e Metodi. La popolazione include tutte le persone di età compresa tra 10 e 24 anni residenti nelle 4 Regioni, con una diagnosi confermata di neoplasia cerebrale primitiva, diagnosticata durante il periodo di studio (3 anni). Sono stati selezionati due controlli - ospedalizzati per appendicite acuta - per ciascun caso. I controlli sono stati appaiati individualmente a ciascun caso per età, sesso e residenza del caso. Risultati. In Italia sono stati intervistati a Giugno 2014, 106 casi e 191 controlli. In Emilia-Romagna i casi reclutati sono stati fino ad ora 21 e i controlli 20, con una rispondenza del’81% e dell’65% rispettivamente. Dei 41 soggetti totali, il 61% era di sesso maschile con un’età media generale pari a 16,5 (±4,5) anni. Inoltre il 44% degli intervistati proveniva dalla classe di età più giovane (10-14). In merito allo stato di appaiamento, nella nostra Regione sono state effettuate 7 triplette (33%) - 1 caso e 2 controlli - e 6 doppiette (29%) - 1 caso ed 1 controllo. Conclusioni. Nonostante le varie difficoltà affrontate data la natura del progetto, l’esperienza maturata fin ad ora ha comunque portato alla fattibilità dello studio e porterà probabilmente a risultati che contribuiranno alla comprensione dei potenziali rischi di neoplasie cerebrali associati all'uso di telefoni cellulari tra i giovani.
Resumo:
L’obiettivo del presente elaborato è quello di analizzare diversi aspetti legati alla protezione internazionale e all’iter per il riconoscimento dello status di rifugiato in Italia e in Argentina. In primo luogo, viene effettuato un breve excursus della normativa vigente che viene analizzata su cinque livelli, ossia internazionale, europeo, italiano, latino-americano e argentino. In secondo luogo, vengono presentate le diverse fasi della procedura da seguire per richiedere asilo nei due Stati: la richiesta di protezione internazionale, la convocazione e l’audizione da parte degli organi competenti alla valutazione dell’istanza e, infine, la decisione. In seguito, viene approfondito nello specifico il ruolo dell’interprete nei colloqui con i richiedenti asilo e i rifugiati. In particolare, viene analizzata l’audizione per il riconoscimento della protezione internazionale, ossia la fase dell’iter in cui si decide la concessione o meno dello status di rifugiato, con il fine di scoprire se esistono delle peculiarità proprie di questo setting specifico rispetto ad altri ambiti giuridici. A tal proposito, vengono analizzati i fattori che la costituiscono, l’influenza che tali aspetti esercitano sull’interazione, nonché sull’interpretazione e le difficoltà di tipo linguistico-culturale e psicologico che l’interprete si può trovare ad affrontare. Infine, vengono presentate quattro interviste che raccontano l’esperienza concreta di interpreti e mediatori e che mostrano fino a che punto la teoria analizzata trova un riscontro nella pratica professionale quotidiana.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
La strategia di diversificazione ha l’obiettivo di sviluppare la presenza competitiva di un’impresa in una molteplicità di settori, non necessariamente correlati. Un’impresa diversificata ha le competenze e il vantaggio di realizzare, quindi, una quota significativa del proprio volume d’affari in settori diversi da quello di origine, o comunque considerato come principale. Ciò che ha suscitato in me maggiore interesse, nell'ambito delle strategie e delle decisioni aziendali e in particolar modo lo studio della diversificazione del mercato, è cercare di capire quali siano le ragioni che conducono le aziende, di grandi e piccole dimensioni, ad ampliare il proprio raggio d’azione. Oggetto di studio e di analisi è il caso IBM – International Business Machine – considerata, a tutt'oggi, una delle più grandi aziende che, da oltre un secolo, opera nel settore informatico. Lo scopo di questo elaborato è cercare di capire quali siano stati in questi lunghi anni e quali tuttora sono gli obiettivi del management aziendale di IBM, che hanno portato ad un lento addio della divisione hardware e puntato su nuove aree di business, cercando di analizzare, nel dettaglio, la strategia di diversificazione attuata. Nel primo capitolo verrà esposta la strategia di diversificazione. Per inquadrare l'ambito di discussione di questo elaborato, verranno esposti i punti fondamentali dell’analisi di settore, la gestione delle imprese diversificate e le decisioni di portafoglio. Il secondo capitolo verterà sull'analisi approfondita dell'azienda, al quale si fa riferimento con una Company Overview che non può prescindere dalla storia della società, passando per le origini e le prime innovazioni in ambito informatico per arrivare fino ai successi di oggi con una particolare focalizzazione al periodo buio attraversato negli anni ‘80. Dopo aver fotografato l’impresa, nella terza e ultima parte, cercherò di ripercorrere, cronologicamente, attraverso i modelli teorici precedentemente esposti, le decisioni manageriali, le strategie e le scelte che hanno portato IBM a diversificare.
Resumo:
Lo studio delle Zone Franche Urbane all’interno del Diritto tributario europeo non ha potuto prescindere da una introduttiva delimitazione del lavoro, capace di distinguere le diverse tipologie di zone franche esistenti nei Paesi intra/extra Ue. Attraversando i casi-studio di Madeira, delle Azzorre, fino alla istituenda Zona Franca di Bruxelles, Zone d’Economie Urbaine stimulée (ZEUS), si è giunti alla constatazione dell’assenza di una definizione di Zona Franca Urbana: analizzando le esperienze normative vissute in Francia e in Italia, si è potuto tratteggiare il profilo territoriale, soggettivo e oggettivo del sistema agevolativo rivolto al recupero delle aree urbane degradate. La funzione strumentale della fiscalità, esplicitata per mezzo delle ZFU, ha condotto ad una verifica di diritto interno per controllare la legittimità delle scelte nazionali in ragione dei principi costituzionali nazionali, come anche una di diritto europeo per evitare che le scelte nazionali, anche se legittime sul piano interno, possano per gli stessi effetti incentivanti alle attività d'impresa presentarsi come una forma territoriale di aiuti di Stato fiscali. Evidenziando il rapporto tra le ZFU e il Mercato europeo si è voluto, da un lato, effettuare una ricostruzione sistemica necessaria per un’interpretazione delle ZFU che metta in luce le componenti di tale strumento orientate al perseguimento di un interesse socioeconomico, che in prima battuta generi una contraddizione, una deroga ai principi costituzionali e comunitari, per poi “sciogliersi” in una coerente applicazione degli stessi; dall’altro, tentare di elevare le ZFU a misura sistemica dell’Ordinamento europeo. Si è svolto, infine, un ragionamento in termini di federalismo fiscale con riferimento alle ZFU, trovando una adeguata collocazione nel percorso di devoluzione intrapreso dal legislatore nazionale, avendo quali interlocutori privilegiati le Regioni a Statuto Speciale.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
Il carcinoma a cellule basali (BCC) costituisce l'80 peercento dei tumori cutanei non-melanoma, rappresentando dunque il tumore maligno della cute più frequente nella popolazione generale. Tuttavia, non esistono ad oggi studi epidemiologici ampi ed approfonditi condotti su scala nazionale su questo tipo di neoplasia, poichè i tumori cutanei non-melanoma sono esclusi dal registro statistico dei tumori. A tale scopo presso la Dermatologia dell'Università di Bologna sono stati raccolti di tutti i casi di carcinoma basocellulare osservati dal 1 gennaio 1990 sino al 31 dicembre 2014, e sono stati rielaborati statisticamente. Il criterio di inclusione adottato è stato la positività per BCC all’esame istologico, sia in caso di biopsia semplice, sia in caso di asportazione radicale. Il progetto è stato svolto presso l’ambulatorio di chirurgia oncologica della nostra UO, così come il follow-up dei pazienti nei casi di recidività multiple o di comparsa di nuovi tumori cutanei. Ad oggi, tale neoplasia è risultata essere quella di più frequente osservazione nella Unità Operativa di Dermatologia dell’Università di Bologna. Non solo, la nostra casistica rimane quella più numerosa fino ad ora riportata in tutta Italia negli ultimi 24 anni.
Studio della fluidodinamica e della reazione chimica in un reattore agitato tramite modellazione cfd
Resumo:
L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.
Resumo:
Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.
Resumo:
Bitcoin è una moneta digitale decentralizzata e parzialmente anonima. Viene scambiata tramite un software open source che utilizza la crittografia per garantire l'integrità e l'autenticità delle transazioni. Permette di inviare denaro digitale in maniera rapida, sicura ed economica attraverso Internet. La tesi si propone di analizzarne il fenomeno, partendo dalla sua storia fino alle possibili evoluzioni future. Vengono introdotte le basi di crittografia per comprenderne i concetti ed i meccanismi di funzionamento. In seguito viene analizzata l'implementazione del software e vengono discussi i principali vantaggi e criticità. La tesi esplora le possibili conseguenze di una sua adozione dal punto di vista economico e politico, e le innovazioni che potrebbe portare al sistema finanziario. Vengono infine mostrati alcuni esempi di software ispirati a Bitcoin che ne estendono ed ampliano le funzionalità nell'ambito dei sistemi distribuiti.
Resumo:
Descrizione dei principali passi che hanno portato alla definizione delle dimensioni principali della struttura di un simulatore di campo magnetico per il test dei magnetometri di un microsatellite. Il sistema di simulazione consiste in 3 coppie di bobine quadrate mutuamente ortogonali ed è in grado di annullare, al proprio interno, il campo geomagnetico locale generando inoltre una componente di campo magnetico orientabile a piacere di intensità fino a 70 microTesla.