272 resultados para lente pericentrica, calibrazione ottica Python, OpenCV


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Synthetic Biology is a relatively new discipline, born at the beginning of the New Millennium, that brings the typical engineering approach (abstraction, modularity and standardization) to biotechnology. These principles aim to tame the extreme complexity of the various components and aid the construction of artificial biological systems with specific functions, usually by means of synthetic genetic circuits implemented in bacteria or simple eukaryotes like yeast. The cell becomes a programmable machine and its low-level programming language is made of strings of DNA. This work was performed in collaboration with researchers of the Department of Electrical Engineering of the University of Washington in Seattle and also with a student of the Corso di Laurea Magistrale in Ingegneria Biomedica at the University of Bologna: Marilisa Cortesi. During the collaboration I contributed to a Synthetic Biology project already started in the Klavins Laboratory. In particular, I modeled and subsequently simulated a synthetic genetic circuit that was ideated for the implementation of a multicelled behavior in a growing bacterial microcolony. In the first chapter the foundations of molecular biology are introduced: structure of the nucleic acids, transcription, translation and methods to regulate gene expression. An introduction to Synthetic Biology completes the section. In the second chapter is described the synthetic genetic circuit that was conceived to make spontaneously emerge, from an isogenic microcolony of bacteria, two different groups of cells, termed leaders and followers. The circuit exploits the intrinsic stochasticity of gene expression and intercellular communication via small molecules to break the symmetry in the phenotype of the microcolony. The four modules of the circuit (coin flipper, sender, receiver and follower) and their interactions are then illustrated. In the third chapter is derived the mathematical representation of the various components of the circuit and the several simplifying assumptions are made explicit. Transcription and translation are modeled as a single step and gene expression is function of the intracellular concentration of the various transcription factors that act on the different promoters of the circuit. A list of the various parameters and a justification for their value closes the chapter. In the fourth chapter are described the main characteristics of the gro simulation environment, developed by the Self Organizing Systems Laboratory of the University of Washington. Then, a sensitivity analysis performed to pinpoint the desirable characteristics of the various genetic components is detailed. The sensitivity analysis makes use of a cost function that is based on the fraction of cells in each one of the different possible states at the end of the simulation and the wanted outcome. Thanks to a particular kind of scatter plot, the parameters are ranked. Starting from an initial condition in which all the parameters assume their nominal value, the ranking suggest which parameter to tune in order to reach the goal. Obtaining a microcolony in which almost all the cells are in the follower state and only a few in the leader state seems to be the most difficult task. A small number of leader cells struggle to produce enough signal to turn the rest of the microcolony in the follower state. It is possible to obtain a microcolony in which the majority of cells are followers by increasing as much as possible the production of signal. Reaching the goal of a microcolony that is split in half between leaders and followers is comparatively easy. The best strategy seems to be increasing slightly the production of the enzyme. To end up with a majority of leaders, instead, it is advisable to increase the basal expression of the coin flipper module. At the end of the chapter, a possible future application of the leader election circuit, the spontaneous formation of spatial patterns in a microcolony, is modeled with the finite state machine formalism. The gro simulations provide insights into the genetic components that are needed to implement the behavior. In particular, since both the examples of pattern formation rely on a local version of Leader Election, a short-range communication system is essential. Moreover, new synthetic components that allow to reliably downregulate the growth rate in specific cells without side effects need to be developed. In the appendix are listed the gro code utilized to simulate the model of the circuit, a script in the Python programming language that was used to split the simulations on a Linux cluster and the Matlab code developed to analyze the data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La carbamazepina fu commercializzata a partire dagli anni Sessanta; è un analgesico anticonvulsivante e specifico per la nevralgia del trigemino ed è uno dei principali farmaci usati nel trattamento dell’epilessia. La sua azione più nota a livello del sistema nervoso è quella di rallentare il recupero dei canali al sodio, sebbene abbia anche effetti metabolici importanti interferendo con il ciclo degli inositoli e con la GSK-3 (glicogeno sintasi-chinasi 3). Tale sostanza è sotto la lente d’ingrandimento sia per le sue caratteristiche chimico-fisiche (vedi la sua alta persistenza in ambiente) sia per la sua alta tossicità per la salute umana. Le sue proprietà terapeutiche spesso sono accompagnate da effetti collaterali sia nei pazienti che assumono direttamente il medicinale, sia negli organismi non-bersaglio che vengono a contatto con i residui ed i metaboliti del farmaco in ambiente. Le principali fonti di contaminazione dell’ambiente sono rappresentate dagli scarichi domestici, urbani, ospedalieri ed industriali e dagli effluenti di impianti di depurazione. Inoltre, l’uso irriguo di acque contenenti residui del farmaco oppure fenomeni di esondazione di corpi idrici contaminati contribuiscono ampiamente alla distribuzione di questo composto nei suoli. La matrice suolo ha avuto relativamente poca attenzione per quanto riguarda gli effetti dell’inquinamento sugli organismi in generale, ed in particolare non vi sono studi sui farmaci. Il presupposto di questo studio dunque è stato quello di mettere a punto una metodologia volta a valutare gli effetti all’esposizione del farmaco carbamazepina su organismi bioindicatori, i lombrichi della specie Eisenia andrei. Il seguente progetto è durato da Maggio 2012 a Febbraio 2013, periodo in cui sono stati effettuati saggi sub cronici per valutare l’effetto di suoli sperimentalmente contaminati con il farmaco sui parametri del ciclo vitale del lombrico (accrescimento, mortalità e riproduzione) e su una serie di biomarker cellulari (neutral red retention assay, accumulo lisosomiale di lipofuscine, accumulo lisosomiale di lipidi neutri insaturi, attività dell’enzima acetilcolinsterasi, attività dell’enzima catalasi, attività dell’ enzima glutatione-S-transferasi e concentrazione di malondialdeide). I risultati ottenuti mostrano che la carbamazepina non ha effetti sui parametri del ciclo vitale. Per quanto riguarda i parametri fisiologici si notano tuttavia dei risultati diversi. L’accumulo lisosomiale di lipofuscine e lipidi neutri indica che il metabolismo dei vermi risulta in qualche modo alterato dall’esposizione alla carbamazepina alle concentrazioni saggiate. Queste alterazioni potrebbero essere spiegate da un effetto di tipo ossidante; infatti i due biomarker oltre a rappresentare un segnale di alterazione metabolica rappresentano anche un indicazione di perossidazione lipidica. Queste osservazioni meritano di essere approfondite studiando il bioaccumulo e la degradazione della carbamazepina nei suoli, che potrebbero essere alla base della diversità di risultati rispetto alla tossicità evidenziata negli organismi acquatici. A fronte della consapevolezza dei rischi potenziali dovuti alla presenza di farmaci nelle acque e nel suolo, molto resta da fare per ampliare le conoscenze su questa tipologia di contaminazione, in particolare nei campi del monitoraggio e del comportamento ambientale, degli studi ecotossicologici e delle procedure e tecnologie idonee a limitare la loro immissione nell’ambiente.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di laurea nasce dall’esperienza maturata presso la VM Motori S.p.A., ufficio CRM (Centro Ricerca Motori) di ingegneria, divisione del reparto R&D (Research and Development) situato a Cento di Ferrara. Durante tale esperienza sono state affrontate le problematiche inerenti al settore automotive riguardo la ricerca e lo sviluppo dei motori endotermici diesel. Dopo un approccio introduttivo, che definisce l’ambito lavorativo in cui opera VM Motori S.p.A. e l’oggetto della tesi, si passa alla definizione ed alla calibrazione di un circuito low pressure EGR di un propulsore diesel da 200HP@3800rpm di potenza e 500Nm@1600rpm di coppia per uso automobilistico, mediante l’ausilio dei software AδαMO, INCA, Controldesk Next Generation, DoE, DIAdem ed INDICOM, software per lo studio della calibrazione al banco sviluppo. Si analizzano gli aspetti che contraddistinguono la VM Motori S.p.A. dalle altre aziende specializzate nel settore automotive, facendo riferimento ai campi produttivi in cui si applica l’ingegneria meccanica ed analizzandone gli aspetti tecnici, metodici e gestionali. Da notare il ruolo fondamentale delle automotive nell’economia mondiale in riferimento alla produzione dei principali propulsori diesel, primarie fonti produttive della VM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sommario Il progetto descritto in questo documento consiste nella realizzazione di una prima applicazione pratica di uno specifico studio di ricerca rivolto al ripristino di reti wireless in scenari post-calamità naturali. In principio è stata descritta un’ampia analisi delle problematiche di rete che si vengono a creare in seguito ad eventi catastrofici. Successivamente, analizzando le varie tecniche e tecnologie oggetto di studio di diversi gruppi di ricerca, si è scelto di collaborare con il progetto STEM-Mesh, essendo ancora in fase sperimentale, il quale affronta il problema di ristabilire la connettività di rete in questi particolari scenari, attraverso l’utilizzo di tecnologie Cognitive Radio (CR), mobilità controllata e principi di reti auto-organizzanti. Di questo primo approccio pratico sono state poi descritte le fasi di progettazione, implementazione e testing. Nella fase di progettazione sono state studiate le componenti hardware e software che rispettassero il più possibile i requisiti e le caratteristiche dei dispositivi “staminali” STEM-Node cuore del progetto STEM-Mesh, ovvero dei dispositivi wireless altamente auto-riconfiguranti ed auto-organizzanti che possono diventare dispositivi sostituivi ai nodi compromessi in una rete, riconfigurandosi appunto in base alle funzionalità interrotte. Nella fase di implementazione si è passati alla stesura del codice, in Python e Wiring, abilitante il dispositivo STEM-Node. Infine nella fase di testing si è verificato che i risultati fossero quelli desiderati e che il sistema realizzato funzionasse come previsto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La realizzazione di stati non classici del campo elettromagnetico e in sistemi di spin è uno stimolo alla ricerca, teorica e sperimentale, da almeno trent'anni. Lo studio di atomi freddi in trappole di dipolo permette di avvicinare questo obbiettivo oltre a offrire la possibilità di effettuare esperimenti su condesati di Bose Einstein di interesse nel campo dell'interferometria atomica. La protezione della coerenza di un sistema macroscopico di spin tramite sistemi di feedback è a sua volta un obbiettivo che potrebbe portare a grandi sviluppi nel campo della metrologia e dell'informazione quantistica. Viene fornita un'introduzione a due tipologie di misura non considerate nei programmi standard di livello universitario: la misura non distruttiva (Quantum Non Demolition-QND) e la misura debole. Entrambe sono sfruttate nell'ambito dell'interazione radiazione materia a pochi fotoni o a pochi atomi (cavity QED e Atom boxes). Una trattazione delle trappole di dipolo per atomi neutri e ai comuni metodi di raffreddamento è necessaria all'introduzione all'esperimento BIARO (acronimo francese Bose Einstein condensate for Atomic Interferometry in a high finesse Optical Resonator), che si occupa di metrologia tramite l'utilizzo di condensati di Bose Einstein e di sistemi di feedback. Viene descritta la progettazione, realizzazione e caratterizzazione di un servo controller per la stabilizzazione della potenza ottica di un laser. Il dispositivo è necessario per la compensazione del ligh shift differenziale indotto da un fascio laser a 1550nm utilizzato per creare una trappola di dipolo su atomi di rubidio. La compensazione gioca un ruolo essenziale nel miglioramento di misure QND necessarie, in uno schema di feedback, per mantenere la coerenza in sistemi collettivi di spin, recentemente realizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati film sottili (circa 10 nm) di silicio amorfo idrogenato (a-Si:H), studiando in particolare leghe a basso contenuto di ossigeno e carbonio. Tali layer andranno ad essere implementati come strati di passivazione per wafer di Si monocristallino in celle solari ad eterogiunzione HIT (heterojunctions with intrinsic thin layer), con le quali recentemente è stato raggiunto il record di efficienza pari a 24.7% . La deposizione è avvenuta mediante PECVD (plasma enhanced chemical vapour deposition). Tecniche di spettroscopia ottica, come FT-IR (Fourier transform infrared spectroscopy) e SE (spettroscopic ellipsometry) sono state utilizzate per analizzare le configurazioni di legami eteronucleari (Si-H, Si-O, Si-C) e le proprietà strutturali dei film sottili: un nuovo metodo è stato implementato per calcolare i contenuti atomici di H, O e C da misure ottiche. In tal modo è stato possibile osservare come una bassa incorporazione (< 10%) di ossigeno e carbonio sia sufficiente ad aumentare la porosità ed il grado di disordine a lungo raggio del materiale: relativamente a quest’ultimo aspetto, è stata sviluppata una nuova tecnica per determinare dagli spettri ellisometrici l’energia di Urbach, che esprime la coda esponenziale interna al gap in semiconduttori amorfi e fornisce una stima degli stati elettronici in presenza di disordine reticolare. Nella seconda parte della tesi sono stati sviluppati esperimenti di annealing isocrono, in modo da studiare i processi di cristallizzazione e di effusione dell’idrogeno, correlandoli con la degradazione delle proprietà optoelettroniche. L’analisi dei differenti risultati ottenuti studiando queste particolari leghe (a-SiOx e a-SiCy) ha permesso di concludere che solo con una bassa percentuale di ossigeno o carbonio, i.e. < 3.5 %, è possibile migliorare la risposta termica dello specifico layer, ritardando i fenomeni di degradazione di circa 50°C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'attività di tesi consiste sia nella calibrazione di un banco di misura per analisi di rumore a basse frequenze nei dispositivi MOSFET di potenza, sia nella valutazione dei relativi e successivi dati sperimentali (con particolare attenzione anche ai processi di stress e recupero applicati ai dispositivi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggior parte dei corpi celesti che popolano l’universo emette “luce”. Ciò significa che essi sono visibili dai nostri occhi quando li alziamo sul cielo notturno o al limite, se troppo lontani, da potenti telescopi ottici. Questa luminosità ha nella maggior parte dei casi un’origine termonucleare, dovuta cioè alla presenza di sorgenti come le stelle, in cui l’elevata temperatura interna legata alle reazioni di fusione che le mantengono in vita produce una radiazione di corpo nero in banda ottica. Tuttavia, dato che la parte visibile costituisce solo una minuscola porzione dell’intero spettro elettromagnetico, andando ad indagare emissioni a differenti frequenze come il radio, l’infrarosso, l’ultravioletto, X e gamma, si rileva la presenza un’altra categoria di oggetti dalle caratteristiche peculiari che li rendono un affascinante campo di studio per molteplici ragioni: i Nuclei Galattici Attivi (AGN) (figura 1). Sono abbastanza rari (costituiscono meno dell’1% del totale rispetto alle normali galassie) e dalla vita breve, spesso molto lontani e potenti, ferventi di un’intensa attività che sembra crescere col redshift; si ipotizza perciò che siano giovani e che ci aprano una finestra sul momento successivo al collasso iniziale proprio della vita di ogni galassia, rivelandosi fondamentali per elaborare eventuali teorie cosmologiche. Inoltre, sebbene spesso ospiti di galassie visibili anche in ottico, i loro meccanismi di emissione e gli speciali comportamenti necessitano di analisi e spiegazioni totalmente differenti. Particolare è anche il metodo di rilevamento: per coprire infatti queste determinate frequenze è stata sviluppata una tecnica innovativa capace di dare ottimi risultati, perfino migliori di quelli dei telescopi tradizionali, l’interferometria radio. La tesi si divide in due parti: la prima delinea un ritratto degli AGN, la seconda analizza il flusso proveniente dalla radiogalassia 3C 84 a 15.4 e 43 GHz e ipotizza un possibile sito di origine dell’aumento di brillanza osservato.