194 resultados para 302.2 Comunicazione (Classificare qui le Scienze della comunicazione)
Resumo:
Il modello di Bondi rappresenta il modello di accrescimento più semplice, in quanto studia l'accrescimento su un BH isolato immerso in una distribuzione di gas infinita. In questa semplice trattazione puramente idrodinamica vengono trascurati molti aspetti importanti, come ad esempio il momento angolare, il campo magnetico, gli effetti relativistici, ecc. L'obiettivo di questa Tesi consiste nell'affinare tale modello aggiungendo alcune nuove componenti. In particolare, vogliamo studiare come queste nuove componenti possano influire sul tasso di accrescimento della materia. Dopo una Introduzione (Capitolo 1), nel Capitolo 2 viene presentato il modello di Bondi originale, con lo scopo di ricostruire il procedimento matematico che porta alla soluzione e di verificare il funzionamento del codice numerico scritto per la soluzione dell'equazione di Bondi finale. Tuttavia, il modello di accrescimento sferico stazionario tratta il potenziale gravitazionale di un oggetto puntiforme isolato, mentre in questo lavoro di Tesi si vogliono considerare i BH che si trovano al centro delle galassie. Pertanto, nel Capitolo 3 è stata rivisitata la trattazione matematica del problema di Bondi aggiungendo alle equazioni il potenziale gravitazionale prodotto da una galassia con profilo di densità descritto dal modello di Hernquist. D'altronde, ci si aspetta che l'energia potenziale gravitazionale liberata nell'accrescimento, almeno parzialmente, venga convertita in radiazione. In regime otticamente sottile, nell'interazione tra la radiazione e la materia, domina l'electron scattering, il che permette di estendere in maniera rigorosa la trattazione matematica del problema di Bondi prendendo in considerazione gli effetti dovuti alla pressione di radiazione. Infatti, in un sistema a simmetria sferica la forza esercitata dalla pressione di radiazione segue l'andamento "1/r^2", il che comporta una riduzione della forza gravitazionale della stessa quantità per tutti i raggi. Tale argomento rappresenta l'oggetto di studio del Capitolo 4. L'idea originale alla base di questo lavoro di Tesi, che consiste nell'unire i due modelli sopra descritti (ossia il modello di Bondi con la galassia e il modello di Bondi con feedback radiativo) in un unico modello, è stata sviluppata nel Capitolo 5. Utilizzando questo nuovo modello abbiamo cercato di determinare delle "ricette" per la stima del tasso di accrescimento, da utilizzare nell'analisi dei dati osservativi oppure da considerare nell'ambito delle simulazioni numeriche. Infine, nel Capitolo 6 abbiamo valutato alcune applicazioni del modello sviluppato: come una possibile soluzione al problema di sottoluminosità dei SMBH al centro di alcune galassie dell'universo locale; per la stima della massa del SMBH imponendo la condizione di equilibrio idrostatico; un possibile impiego dei risultati nell'ambito dei modelli semi-analitici di coevoluzione di galassie e SMBH al centro di esse.
Resumo:
Questa tesi ha come argomento lo studio dei dispositivi fotovoltaici, sistemi che trasformano la radiazione solare in energia elettrica. In particolare è stata approfondita l'analisi di una specifica categoria di celle solari, le tandem cells, dispositivi a giunzione multipla in cui la radiazione solare attraversa due o più giunzioni singole caratterizzate da gap energetici differenti, al fine di massimizzarne l'assorbimento. In primo luogo sono state analizzate le caratteristiche della radiazione solare, assimilabile a quella di un Corpo Nero. Successivamente, dopo una presentazione introduttiva dei parametri principali dei dispositivi fotovoltaici, sono state studiate in dettaglio le celle a giunzione singola, sia da un punto di vista elettrico che termodinamico. Infine è stato esposto il funzionamento delle celle tandem, dando particolare risalto alla risposta elettrica e ai limiti di efficienza di questi dispositivi.
Resumo:
La rituale ciclicità del cielo ed il mistero degli eventi che in esso accadono hanno portato tutte le popolazioni della Terra ad osservarlo e studiarlo fin dai tempi più remoti. È solo con l'avvento del telescopio però, che si viene a conoscenza di una gran moltitudine di oggetti celesti. I primi strumenti ottici in uso erano telescopi rifrattori. Questi presentavano un problema: l’aberrazione cromatica, che oggi sappiamo può essere parzialmente risolta utilizzando obiettivi a doppietto o tripletto acromatico. All’epoca per ovviare il problema, Newton, decise di utilizzare un sistema di specchi curvi e nel 1668 costruì il primo telescopio riflettore. L’era dei grandi telescopi riflettori iniziò nel 18° secolo. Uno dei più grandi telescopi costruiti all’epoca aveva una superficie ottica di circa 122 cm di diametro. Nel creare telescopi di dimensioni maggiori, ci si imbatte in vari problemi. La soluzione adottata nella costruzione di grandi telescopi fino agli anni '80, fu quella di costruire un imponente blocco monolitico come specchio primario. Questo portò alla costruzione di enormi e pesanti telescopi che si dovevano muovere con alta precisione. Spinti al limite delle capacità progettuali e costruttive dell'epoca, nacque un nuovo concetto costruttivo dei telescopi. Si passò da uno strumento passivo ad un sistema attivo, in cui la qualità dell'ottica era ottenuta da un controllo elettronico di strutture deformabili. Con l’ottica attiva fu possibile costruire telescopi di dimensioni sempre maggiori. Tuttavia ci si imbatte in un ulteriore problema: la qualità dell’immagine è degradata dalla turbolenza atmosferica. In questo trattato mi propongo di descrivere una recente tecnica di correzione per rimuovere le distorsioni del fronte d'onda causate dalla turbolenza: l’ottica adattiva.
Resumo:
Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.
Resumo:
Il punto di partenza del presente lavoro di ricerca terminologica è stato il soggiorno formativo presso la Direzione generale della Traduzione (DGT) della Commissione Europea di Lussemburgo. Il progetto di tirocinio, ovvero l’aggiornamento e la revisione di schede IATE afferenti al dominio finanziario, e gli aspetti problematici riscontrati durante la compilazione di tali schede hanno portato alla definizione della presente tesi. Lo studio si prefigge di analizzare la ricezione della terminologia precipua della regolamentazione di Basilea 3, esaminando il fenomeno della variazione linguistica in corpora italiani e tedeschi. Nel primo capitolo si descrive brevemente l’esperienza di tirocinio svolto presso la DGT, si presenta la banca dati IATE, l’attività terminologica eseguita e si illustrano le considerazioni che hanno portato allo sviluppo del progetto di tesi. Nel secondo capitolo si approfondisce il dominio investigato, descrivendo a grandi linee la crisi finanziaria che ha portato alla redazione della nuova normativa di Basilea 3, e si presentano i punti fondamentali degli Accordi di Basilea 3. Il terzo capitolo offre una panoramica sulle caratteristiche del linguaggio economico-finanziario e sulle conseguenze della nuova regolamentazione dal punto di vista linguistico, sottolineando le peculiarità della terminologia analizzata. Nel quarto capitolo si descrivono la metodologia seguita e le risorse utilizzate per il progetto di tesi, ovvero corpora ad hoc in lingua italiana e tedesca per l’analisi dei termini e le relative schede terminologiche. Il quinto capitolo si concentra sul fenomeno della variazione linguistica, fornendo un quadro teorico dei diversi approcci alla terminologia, cui segue l’analisi dei corpora e il commento dei risultati ottenuti; si considerano quindi le riflessioni teoriche alla luce di quanto emerso dalla disamina dei corpora. Infine, nell'appendice sono riportate le schede terminologiche IATE compilate durante il periodo di tirocinio e le schede terminologiche redatte a seguito dell’analisi del presente elaborato.
Resumo:
In questo lavoro saranno inizialmente discusse le tecniche medianti le quali sono cresciuti i monocristalli organici confrontando le tecniche di crescita proprie dell’elettronica organica con quelle utilizzate comunemente in quella inorganica. Successivamente si introdurrà il problema del trasporto elettronico con particolare riguardo verso alcune molecole come il rubrene o il pentacene. Tramite il modello microscopico verranno studiate le interazioni elettrone-fonone, locale e non locale, in particolare nei cristalli di rubrene e DMQtT–F4TCNQ attraverso la teoria del piccolo polarone di Holstein. Dopo aver sottolineato i limiti di questa teoria ne verrà proposta una alternativa basata sui lavori di Troisi e supportata da evidenze sperimentali. Tra le tecniche utilizzate per l’analisi dei campioni verranno discusse le basi della teoria del funzionale di densità. L’attenzione sarà rivolta ai cristalli ordinati mentre una breve descrizione sarà riservata per quelli disordinati o amorfi. Nel capitolo 3 verrà trattato il ruolo degli eccitoni all’interno dei semiconduttori organici, mentre nell’ultimo capitolo si discuterà di diverse applicazioni dei semiconduttori organici come la costruzione di FET e di detector per raggi X. Infine verranno mostrati il setup sperimentale e il procedimento per l’estrazione di parametri di bulk in un semiconduttore organico tramite analisi SCLC.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Il documento illustra le funzionalita' della tecnologia NFC, descrive in maniera dettagliata le API pubblicate da Google per lavorare con NFC su Android, e mostra un caso di studio nel contesto di controllo degli accessi..
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di riqualificazione delle Ex Officine Meccaniche Reggiane, un’area industriale, sita a Reggio Emilia, che nel corso degli anni ha subìto una graduale dismissione, sino allo stato attuale di completo abbandono. Il tema riveste un’importanza focale nelle città moderne, affette da un elevato livello di migrazione e riorganizzazione dell’industria, che trasforma vaste aree di produzione in vuoti urbani di difficile gestione. I problemi fondamentali sono infatti la notevole dimensione degli stabilimenti abbandonati e la loro posizione, un tempo strategica, ma che ora risulta critica per una lettura unitaria della città e delle sue connessioni. L’area in oggetto, dedicata nel corso degli anni a diversi tipi di produzione, tra le quali quelle ferroviaria e dell’aviazione, è locata in prossimità del centro storico di Reggio Emilia, separati solamente dalla linea ferroviaria storica con cui si interfaccia direttamente. L’espansione della città ha portato ad inglobare lo stabilimento, che risulta quindi chiuso in se stesso e fortemente vincolante per le connessioni della città. Gli scopi dell’intervento sono quindi quelli di generare connessioni tra le parti di città circostanti e di permettere il riappropriamento dell’area alla popolazione. Per raggiungere tali scopi è stato necessario aprire il forte limite perimetrale esistente ed individuare nuovi percorsi di attraversamento, ma anche nuove funzioni ed attrattività da inserire. Vista la frammentazione dell’area in una serie di edifici, lo studio si è poi concentrato su un edificio tipo, allo scopo di individuare un’ipotesi di intervento più dettagliata. Le strategie degli interventi sono il risultato di interazione tra le necessità di mantenere le strutture ed il carattere dell’area, di introdurre funzioni attrattive e di ottenere adeguati livelli di comfort ambientale e prestazioni energetiche.
Resumo:
In questo lavoro analizzeremo la generalizzazione ad oligonucleotidi della seconda regola di Chargaff. Ripercorreremo gli approcci matematico-statistici più significativi per quantificare la simmetria reverse-complement all'interno di sequenze genomiche, presenteremo le prove della trasversalità di tale fenomeno e cercheremo di far luce sulle origini evolutive di questa simmetria nascosta nei nostri geni.
Resumo:
La geometria euclidea risulta spesso inadeguata a descrivere le forme della natura. I Frattali, oggetti interrotti e irregolari, come indica il nome stesso, sono più adatti a rappresentare la forma frastagliata delle linee costiere o altri elementi naturali. Lo strumento necessario per studiare rigorosamente i frattali sono i teoremi riguardanti la misura di Hausdorff, con i quali possono definirsi gli s-sets, dove s è la dimensione di Hausdorff. Se s non è intero, l'insieme in gioco può riconoscersi come frattale e non presenta tangenti e densità in quasi nessun punto. I frattali più classici, come gli insiemi di Cantor, Koch e Sierpinski, presentano anche la proprietà di auto-similarità e la dimensione di similitudine viene a coincidere con quella di Hausdorff. Una tecnica basata sulla dimensione frattale, detta box-counting, interviene in applicazioni bio-mediche e risulta utile per studiare le placche senili di varie specie di mammiferi tra cui l'uomo o anche per distinguere un melanoma maligno da una diversa lesione della cute.
Resumo:
Questo elaborato nasce da un interesse personale, quello per il romanzo Educazione Siberiana e per l'autore Nicolai Lilin. Da qui è nata un'idea di analisi del romanzo da un punto di vista culturale e traduttologico, nonostante l'opera sia scritta in italiano. Il titolo dell'elaborato descrive la traduzione come lettura ideale: il traduttore, come figura che si pone tra due lingue e due culture, rappresenta infatti il lettore ideale di un'opera tradotta, poiché ha a disposizione le conoscenze della cultura di partenza e di quella di arrivo. Per questo motivo, è attraverso il suo lavoro che tale opera può essere trasmessa ad un lettore medio. Il lettore medio potenzialmente può non conoscere nulla della lingua e della cultura originaria. Come "russista" e studentessa di traduzione, madrelingua italiana, mi sono posta nella posizione di lettrice ideale, che dispone di un bagaglio culturale che va oltre la cultura che si acquisisce in base alle proprie origini. L'obiettivo di questa tesi è perciò quello di effettuare una rilettura del romanzo attraverso i realia, cioè termini e concetti che fanno riferimento ad aspetti propri di una cultura, in questo caso quella russa, per i quali spesso non esiste una traduzione ufficiale e che prevedono, da parte del traduttore, una grande conoscenza della cultura di partenza. Tuttavia mentre il lettore medio critica la veridicità dei racconti crudi e spesso violenti presenti nel romanzo, il traduttore-lettore ideale si rende conto di come alcuni realia della cultura russa siano stati riportati in maniera imprecisa nella lingua italiana. Si analizzeranno quindi i realia trattati in maniera imprecisa, i realia che funzionano e i linguaggi culturali dell'opera a partire dall'articolo di presentazione del romanzo e la sua trasposizione cinematografica.
Resumo:
Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.