962 resultados para Biblioteca nazionale centrale di Roma


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Guida è stata fatta dalla docente con la collaborazione degli studenti che hanno seguito il corso di Linguistica generale nell'a.a. 2006-07. Una copia cartacea è depositata presso la Biblioteca del Dipartimento di Studi Linguistici e Orientali, via Zamboni 33. Verso la fine delle lezioni dell'a.a. 2007-08 sarà stilata una Guida corrispondente agli argomenti trattati durante il corso e al programma per l'esame di Linguistica generale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso del presente studio si è cercato di capire quale potesse essere la normativa applicabile ai vari tipi di contratto elettronici analizzati, sia dal punto di vista del diverso modello contrattuale e sia dal punto di vista del soggetto, come parte del contratto. Infatti, proprio la peculiare logica delle norme poste a tutela del consumatore giustifica un separato approfondimento degli aspetti riguardanti i contratti conclusi tra operatori professionali, contratti business to business e quelli di cui sia parte un consumatore, contratti business to consumer. Sulla base di questi aspetti soggettivi e contrattuali, è stata analizzate la normativa comunitaria di riferimento, dal regolamento n. 44 del 2001 alla direttiva comunitaria 2000/31/CE. Si sono affrontati anche gli aspetti relativi alle norme di derivazione Uncitral, dalla Model Law del 1996 alla Convenzione del 2005 sulle comunicazioni elettroniche nella contrattazione internazionale, le norme di soft law, dalla Nuova lex mercatoria ai Principi Unidroit alle Linee Guida OCSE e la loro interazione con il commercio elettronico. In seguito, si è analizzata la convenzione di Roma sulle obbligazioni contrattuali e il regolamento Roma I, le loro differenze e la loro diretta applicabilità, se esiste, con il commercio elettronico. In particolare, il Regolamento Roma I ha, nella maggior parte delle sue disposizioni, riproposto quanto contenuto nella convenzione di Roma, però in chiave moderna, apportando delle innovazioni nel commercio elettronico internazionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Di fronte al moltiplicarsi di episodi di commissariamento nella pubblica amministrazione italiana e in particolare nel settore culturale, la presente ricerca mira a comprendere gli obiettivi, le modalità di intervento ed i risultati raggiunti mediante la nomina di commissari straordinari. Si tratta di un intervento anomalo ed inusuale a livello internazionale (la stessa voce commissariamento risulta intraducibile in inglese), dove la ricerca di possibili termini di paragone, effettuata passando in rassegna la letteratura di disaster management, quella sul riaccentramento amministrativo e quella sugli interventi di turnaround nel settore pubblico, restituisce un quadro estremamente specifico del fenomeno, per lo più interno ai confini nazionali. Nello studio, caratterizzato da un forte approccio esplorativo e phenomenon driven, vengono analizzati quattro casi di commissariamento nel settore culturale italiano: due aree archeologiche (quella di Napoli e Pompei e quella di Roma e Ostia) e due Fondazioni Liriche (Teatro Carlo Felice di Genova e Arena di Verona). Dalla ricerca emerge un quadro profondamente critico delle gestioni commissariali. Gli obiettivi ambigui e l’elevata discrezionalità concessa al commissario non sono accompagnati da un’adeguata trasparenza nei processi di nomina, proroga e sostituzione dei commissari, con la prevalenza di rapporti di tipo personale o ‘feudale’. Dal punto di vista dei risultati il commissariamento non incide sulla routine dell’amministrazione ordinaria, rappresentando nel migliore dei casi una parentesi temporanea di buona gestione, o, nel peggiore, perseguendo interventi non legittimi rispetto ai valori professionali che regolano le organizzazioni analizzate. Se considerato alla luce del più generale processo di riforma in senso manageriale che ha coinvolto le istituzioni analizzate dalla fine degli anni ’90, il commissariamento esalta ed intensifica gli aspetti maggiormente critici dell’approccio italiano al New Public Management, in termini di scarsa trasparenza e accountability, elevata influenza della politica nei processi decisionali e generale incoerenza dei disegni di riforma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del presente progetto di ricerca era determinare se l’utilizzo non clinico del simulatore d’alba (un dispositivo che emette luce in graduale aumento prima del risveglio), basato su specifiche conoscenze cronobiologiche, potesse ridurre alcune delle conseguenze del social jetlag, in studenti di scuola secondaria di secondo grado. A tal fine, sono stati valutati gli effetti del simulatore d’alba su tono dell’umore (valutato soggettivamente tramite la Global and Vigor Affect Scale-GVA), livelli di attivazione (valutati soggettivamente tramite la GVA), qualità/quantità di sonno (valutate oggettivamente e soggettivamente tramite attigrafia e Mini Sleep Questionnaire-MSQ), architettura del sonno (valutata oggettivamente tramite Zeo®) ed efficienza dei tre network attentivi (alerting, orienting ed executive), valutata oggettivamente tramite l’Attention Network Test (ANT). In totale, hanno preso parte alla ricerca 56 adolescenti (24 femmine e 32 maschi), frequentanti due istituti di scuola secondaria di secondo grado nella città di Cesena, la cui età media era di 17.68 anni (range d’età 15-20 anni). Ad ogni studente è stata richiesta una partecipazione di 5 settimane consecutive ed il disegno di ricerca prevedeva 3 condizioni sperimentali: baseline, simulatore d’alba e controllo. All’MSQ, in seguito all’utilizzo del simulatore d’alba, sono state osservate una minore percezione di sonnolenza diurna, una frequenza inferiore di risvegli notturni ed una riduzione del numero di partecipanti che presentavano una cattiva qualità della veglia. All’ANT, è stato documentato un significativo miglioramento dell’efficienza del network attentivo dell’alerting, successivo all’impiego del simulatore d’alba, dovuto ad una maggiore reattività dei partecipanti in seguito alla comparsa del double cue, che anticipava la presentazione del target (freccia centrale di cui i partecipanti dovevano giudicare la direzione). Tali risultati convergono nell’evidenziare la capacità del simulatore d’alba di esercitare un effetto attivante/stimolante, mostrando dunque come esso possa essere considerato uno strumento potenzialmente utilizzabile quale contromisura al social jetlag in adolescenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'integrazione multisensoriale è la capacità da parte del sistema nervoso centrale di integrare informazioni provenienti da diverse sorgenti sensoriali. In particolare, l'integrazione audio-visiva avviene anche nelle cortecce visive e acustiche, in principio ritenute puramente unisensoriali. L'integrazione audio-visiva non è un'abilità innata, ma si sviluppa progressivamente nel tempo sulla base dell'esperienza. In questa Tesi viene presentato un modello matematico di rete neurale in grado di simulare lo sviluppo in un ambiente multisensoriale dei neuroni delle cortecce primarie visive e uditive nei primi mesi di vita di un neonato, e gli effetti dell'integrazione audio-visiva successivi a tale addestramento. In particolare il modello vuole mostrare, a partire da una condizione basale in cui i neuroni visivi e acustici non sono in grado di discriminare spazialmente la posizione degli input esterni e in cui non sussiste alcuna correlazione tra le due aree corticali primarie visive e uditive, come l'addestramento migliori la precisione della percezione spaziale degli stimoli esterni e come si stabiliscano tra le due aree in esame dei collegamenti stabili a lungo termine. Terminato l'addestramento, si verifica se la rete sia in grado di riprodurre gli effetti di integrazione audio-visiva nella corteccia primaria, quali la "cattura" dello stimolo acustico da parte di quello visivo (ventriloquismo) e il rafforzamento della risposta neurale allo stimolo acustico se contemporaneamente accompagnato da uno stimolo visivo nella stessa posizione spaziale (enhancement). Il modello potrebbe essere utilizzato in futuro anche per simulare altri fenomeni illusori come il fenomeno offline del ventriloquismo e il ventriloquismo a livello temporale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema storico che è al centro di questo progetto di ricerca può essere così riassunto: in che modo viene selezionata la classe dirigente comunista nell’Italia repubblicana? Ovvero, detto in altri termini, in che misura le nomine dipendevano dal centro, per cooptazione, secondo la tradizione del modello di partito centralizzato, e quanto, invece, costituivano una ratifica alta di processi di selezione che si sviluppavano in periferia? Quanto contava, insomma, l’aver avuto lo scettro del comando nei territori di provenienza per ricoprire incarichi direttivi nel partito a livello nazionale? La nostra ricerca vuole quindi verificare la valididi alcuni paradigmi interpretativi, scaturiti da un’analisi complessiva della politica comunista, prendendo in esame un caso di studio locale, quello di una regione «rossa» per antonomasia come la Toscana. Tenendo conto, contestualmente, della realtà nazionale e di quella locale, cercheremo di analizzare, le ricadute che processi di portata nazionale ebbero sulla realtà locale, e in particolare, sulle modalità che regolavano la selezione della classe dirigente, dando alla ricerca un taglio prosopografico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto per il cimitero e centro interreligioso a Finale Emilia nasce dalla terribile vicenda del terremoto del maggio 2012, che ha portato a ripensare e ricostruire la città. Finale Emilia ha perso diversi punti di riferimento durante il sisma: i monumenti e gran parte del patrimonio artistico e culturale della città. Analizzando la demografia della città è emersa una importante presenza straniera, e in particolare appartenente alla comunità musulmana. Siccome Finale Emilia è la sede del più antico e suggestivo cimitero ebraico della regione e possiede inoltre un elegante cimitero monumentale cattolico, si è pensato di progettare una grande area cimiteriale interreligiosa dotata anche di numerosi spazi per la collettività, una moschea e una biblioteca come centro di incontro. Quella dell’integrazione è una delle più importanti e difficili sfide del nostro tempo e questo progetto si propone di provare a darne una risposta architettonica per favorire il dialogo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro che ho sviluppato presso l'unità di RM funzionale del Policlinico S.Orsola-Malpighi, DIBINEM, è incentrato sull'analisi dati di resting state - functional Magnetic Resonance Imaging (rs-fMRI) mediante l'utilizzo della graph theory, con lo scopo di valutare eventuali differenze in termini di connettività cerebrale funzionale tra un campione di pazienti affetti da Nocturnal Frontal Lobe Epilepsy (NFLE) ed uno di controlli sani. L'epilessia frontale notturna è una peculiare forma di epilessia caratterizzata da crisi che si verificano quasi esclusivamente durante il sonno notturno. Queste sono contraddistinte da comportamenti motori, prevalentemente distonici, spesso complessi, e talora a semiologia bizzarra. L'fMRI è una metodica di neuroimaging avanzata che permette di misurare indirettamente l'attività neuronale. Tutti i soggetti sono stati studiati in condizioni di resting-state, ossia di veglia rilassata. In particolare mi sono occupato di analizzare i dati fMRI con un approccio innovativo in campo clinico-neurologico, rappresentato dalla graph theory. I grafi sono definiti come strutture matematiche costituite da nodi e links, che trovano applicazione in molti campi di studio per la modellizzazione di strutture di diverso tipo. La costruzione di un grafo cerebrale per ogni partecipante allo studio ha rappresentato la parte centrale di questo lavoro. L'obiettivo è stato quello di definire le connessioni funzionali tra le diverse aree del cervello mediante l'utilizzo di un network. Il processo di modellizzazione ha permesso di valutare i grafi neurali mediante il calcolo di parametri topologici che ne caratterizzano struttura ed organizzazione. Le misure calcolate in questa analisi preliminare non hanno evidenziato differenze nelle proprietà globali tra i grafi dei pazienti e quelli dei controlli. Alterazioni locali sono state invece riscontrate nei pazienti, rispetto ai controlli, in aree della sostanza grigia profonda, del sistema limbico e delle regioni frontali, le quali rientrano tra quelle ipotizzate essere coinvolte nella fisiopatologia di questa peculiare forma di epilessia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las implicaciones morales del traductor y la ética traductora serán el eje central de este trabajo en el que a través de un ejemplo práctico se reflexionará acerca de la importancia de las elecciones de traducción y los efectos de las traducciones en el lector. L'asse centrale di questa tesi saranno le implicazioni morali del traduttore e l'etica nella traduzione. Attraverso un esempio si rifletterà riguardo l'importanza delle scelte di traduzione e gli effetti delle traduzioni nel lettore

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.