988 resultados para modello epidemologia
Resumo:
L’oggetto della presente tesi è sviluppare la ricostruzione virtuale di un autobus pubblicitario progettato negli anni 50, un simbolo del design italiano legato allo sviluppo industriale del secondo dopoguerra. La tesi si sviluppa inizialmente con un’attività di ricerca e documentazione legata all'autobus, con particolare attenzione alla raccolta di immagini e disegni progettuali d’epoca, punto di partenza per la ricostruzione virtuale del mezzo. Si procede quindi alla modellazione CAD della carrozzeria cercando di replicare in modo quanto più dettagliato l’originale. Dal modello ottenuto, sono stati ricavati due prototipi di diverse dimensioni e materiali: un primo di dimensioni ridotte, realizzato tramite la tecnica del rapid prototyping, ed un secondo di dimensioni maggiori, in ureol fresato. Successivamente si procede ad uno studio preliminare di ricostruzione del mezzo con lo scopo di analizzare le principali problematiche di un’eventuale futura costruzione e messa in strada del mezzo. Tale studio parte dalla normativa vigente sulla costruzione e sulle norme di circolazione degli autobus, comprendente sia le leggi italiane sia comunitarie, riguardanti le caratteristiche dimensionali, prestazionali e di sicurezza che qualsiasi autobus con licenza di circolazione deve rispettare. Quindi verrà compiuta la scelta del telaio base da utilizzare tra quelli proposti dai maggiori costruttori europei e verrà realizzato il modello CAD anche del telaio con l’obiettivo di collegarlo alla carrozzeria e ottenere così il modello completo in tutte le sue parti. Per realizzare la scocca, verranno prese in esame le soluzioni costruttive più utilizzate dai progettisti di autobus, e viene svolto un breve studio riguardo i materiali utilizzabili a tale scopo. Sulla base di tali considerazioni si procederà alla modellazione della stessa. In ultimo si procede ad un preliminare studio fluidodinamico attraverso l’analisi CFD, e ad un preliminare studio del comportamento meccanico della struttura reticolare che sostiene la carrozzeria.
Resumo:
Tra le plurime conseguenze dell’avvento del digitale, la riarticolazione dei rapporti tra immagine statica e immagine in movimento è certamente una delle più profonde. Sintomatica dei cambiamenti in atto sia nei film studies sia nella storia dell’arte, tale riarticolazione richiede un ripensamento dei confini disciplinari tradizionali entro cui il cinema e la fotografia sono stati affrontati come oggetti di studio separati e distinti. Nell’adottare un approccio molteplice, volto a comprendere prospettive provenienti dalla New Film History e dalla media archaeology, dalla teoria dell’arte e dagli studi visuali, questo lavoro esplora l’esistenza di una relazione dialettica tra il cinema e la fotografia intesa in modo duplice: come tensione costitutiva tra due media indissolubilmente connessi – non tanto in considerazione di un medesimo principio realistico di rappresentazione quanto, piuttosto, in virtù di uno scambio incessante nella modellizzazione di categorie quali il tempo, il movimento, l’immobilità, l’istante, la durata; come istanza peculiare della pratica artistica contemporanea, paradigma di riferimento nella produzione estetica di immagini. La tesi si suddivide in tre capitoli. Il primo si concentra sul rapporto tra l’immobilità e il movimento dell’immagine come cifra in grado di connettere l’estetica delle attrazioni e la cronofotografia a una serie di esperienze filmiche e artistiche prodotte nei territori delle avanguardie. Il secondo capitolo considera l’emergenza, dagli anni Novanta, di pratiche artistiche in cui l’incontro intermediale tra film e fotografia fornisce modelli di analisi volti all’indagine dell’attuale condizione estetica e tecnologica. Il terzo offre una panoramica critica su un caso di studio, la GIF art. La GIF è un formato digitale obsoleto che consente di produrre immagini che appaiono, simultaneamente, come fisse e animate; nel presente lavoro, la GIF è discussa come un medium capace di contraddire i confini attraverso cui concepiamo l’immagine fissa e in movimento, suggerendo, inoltre, un possibile modello di pensiero storico-cronologico anti-lineare.
Resumo:
This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.
Resumo:
Il progetto di ricerca è finalizzato allo sviluppo di una metodologia innovativa di supporto decisionale nel processo di selezione tra alternative progettuali, basata su indicatori di prestazione. In particolare il lavoro si è focalizzato sulla definizione d’indicatori atti a supportare la decisione negli interventi di sbottigliamento di un impianto di processo. Sono stati sviluppati due indicatori, “bottleneck indicators”, che permettono di valutare la reale necessità dello sbottigliamento, individuando le cause che impediscono la produzione e lo sfruttamento delle apparecchiature. Questi sono stati validati attraverso l’applicazione all’analisi di un intervento su un impianto esistente e verificando che lo sfruttamento delle apparecchiature fosse correttamente individuato. Definita la necessità dell’intervento di sbottigliamento, è stato affrontato il problema della selezione tra alternative di processo possibili per realizzarlo. È stato applicato alla scelta un metodo basato su indicatori di sostenibilità che consente di confrontare le alternative considerando non solo il ritorno economico degli investimenti ma anche gli impatti su ambiente e sicurezza, e che è stato ulteriormente sviluppato in questa tesi. Sono stati definiti due indicatori, “area hazard indicators”, relativi alle emissioni fuggitive, per integrare questi aspetti nell’analisi della sostenibilità delle alternative. Per migliorare l’accuratezza nella quantificazione degli impatti è stato sviluppato un nuovo modello previsionale atto alla stima delle emissioni fuggitive di un impianto, basato unicamente sui dati disponibili in fase progettuale, che tiene conto delle tipologie di sorgenti emettitrici, dei loro meccanismi di perdita e della manutenzione. Validato mediante il confronto con dati sperimentali di un impianto produttivo, si è dimostrato che tale metodo è indispensabile per un corretto confronto delle alternative poiché i modelli esistenti sovrastimano eccessivamente le emissioni reali. Infine applicando gli indicatori ad un impianto esistente si è dimostrato che sono fondamentali per semplificare il processo decisionale, fornendo chiare e precise indicazioni impiegando un numero limitato di informazioni per ricavarle.
Resumo:
L’accoppiamento di diverse operazioni unitarie può in certi casi portare ad una cosiddetta “intensificazione di processo”, cioè ad un aumento sostanziale delle rese, dell’efficienza e della sostenibilità. Nel presente lavoro sono state pertanto analizzate le potenzialità di accoppiamento della fotocatalisi, il più studiato tra i “processi di ossidazione avanzata”, sia con alcuni processi a membrana per la sintesi verde di aromi sia con l’ozonizzazione per la depurazione di acque. È stato dimostrato che in entrambi i casi l’ottenimento di una significativa intensificazione di processo dipende in gran parte dai parametri operativi, in particolare dal rapporto, delta, tra la velocità caratteristica di fotocatalisi e quella del processo accoppiato. Nel caso della sintesi di aromi, in cui la fotocatalisi viene accoppiata con la pervaporazione o con la dialisi ricircolando al reattore il retentato dalla cella con la membrana. Il parametro delta dipende dalla velocità di reazione, dalle proprietà di trasporto delle membrane e naturalmente dal volume del rettore e dall’area della membrana. La reazione fotocatalitica produce l’aroma, ad esempio vanillina da acido ferulico, per ossidazione parziale e grazie al recupero del prodotto se ne evita l’ulteriore ossidazione aumentandone pertanto la resa. L’operare in apparati separati offre diversi vantaggi come la possibilità di variare senza vincoli il rapporto tra area della membrana e volume del reattore, ma impone di considerare anche il grado effettivo di accoppiamento dei processi. In questo caso, come evidenziato dal modello matematico, un sufficientemente elevato rapporto di ricircolo consente comunque di integrare efficacemente i processi. Nell’ozonizzazione fotocatalitica si hanno due importanti vantaggi: l’aumento della velocità di degradazione grazie alla sinergia tra i processi e la capacità di controllare la formazione di prodotti pericolosi. La sinergia viene massimizzata ad un valore ottimale di delta, mentre la formazione dei prodotti indesiderati viene controllata operando secondo le procedure che sono state individuate.
Resumo:
L'interrogativo da cui nasce la ricerca riguarda la possibilità di individuare, in controtendenza con la logica neoliberista, strategie per l'affermarsi di una cultura dello sviluppo che sia sostenibile per l'ambiente e rispettosa della dignità delle persone, in grado di valorizzarne le differenze e di farsi carico delle difficoltà che ognuno può incontrare nel corso della propria esistenza. Centrale è il tema del lavoro, aspetto decisivo delle condizioni di appartenenza sociale e di valorizzazione delle risorse umane. Vengono richiamati studi sulla realtà in cui siamo immersi, caratterizzata dal pensiero liberista diventato negli ultimi decenni dominante su scala globale e che ha comportato una concezione delle relazioni sociali basata su di una competitività esasperata e sull’esclusione di chi non sta al passo con le leggi di mercato: le conseguenze drammatiche dell'imbroglio liberista; la riduzione delle persone a consumatori; la fuga dalla comunità ed il rifugio in identità separate; il tempo del rischio, della paura e della separazione fra etica e affari. E gli studi che, in controtendenza, introducono a prospettive di ricerca di uno sviluppo inclusivo e umanizzante: le prospettive della decrescita, del business sociale, di una via cristiana verso un'economia giusta, della valorizzazione delle capacità delle risorse umane. Vengono poi indagati i collegamenti con le esperienze attive nel territorio della città di Bologna che promuovono, attraverso la collaborazione fra istituzioni, organizzazioni intermedie e cittadini, occasioni di un welfare comunitario che sviluppa competenze e diritti insieme a responsabilità: l'introduzione delle clausole sociali negli appalti pubblici per la realizzazione professionale delle persone svantaggiate; la promozione della responsabilità sociale d'impresa per l'inclusione socio-lavorativa; la valorizzazione delle risorse delle persone che vivono un’esperienza carceraria. Si tratta di esperienze ancora limitate, ma possono costituire un riferimento culturale e operativo di un modello di sviluppo possibile, che convenga a tutti, compatibile con i limiti ambientali e umanizzante.
Resumo:
Questo lavoro si concentra su un particolare aspetto della sfaccettata ricerca scientifica di Johannes Kepler (1571-1630), ossia quello teorico-musicale. I pensieri dell’astronomo tedesco riguardanti tale campo sono concentrati – oltre che in alcuni capitoli del Mysterium cosmographicum (1596) ed in alcune sue lettere – nel Libro III dell’Harmonices mundi libri quinque (1619), che, per la sua posizione mediana all’interno dell’opera, tra i primi due libri geometrici e gli ultimi due astronomici, e per la sua funzione di raccordo tra la «speculazione astratta» della geometria e la concretizzazione degli archetipi geometrici nel mondo fisico, assume la struttura di un vero e proprio trattato musicale sul modello di quelli rinascimentali, nel quale la «musica speculativa», dedicata alla teoria delle consonanze e alla loro deduzione geometrica precede la «musica activa», dedicata alla pratica del canto dell’uomo nelle sue differenze, generi e modi. La tesi contiene la traduzione italiana, con testo latino a fronte, del Libro III dell’Harmonice, e un’ampia introduzione che percorre le tappe fondamentali del percorso biografico e scientifico che hanno portato alla concezione di quest’opera – soffermandosi in particolare sulla formazione musicale ricevuta da Keplero, sulle pagine di argomento musicale del Mysterium e delle lettere, e sulle riflessioni filosofico-armoniche sviluppate negli anni di ricerca – e offre gli elementi fondamentali per poter comprendere l’Harmonice mundi in generale e il Libro III in particolare. A ciò si aggiunge, in Appendice, la traduzione, anch’essa con testo latino a fronte, della Sectio V, dedicata alla musica, del Liber IX dell’Almagestum novum (1651) di Giovanni Battista Riccioli (1598-1671), interessante sia dal punto di vista della recezione delle teorie di Keplero che dal punto di vista della storia delle idee musicali.
Resumo:
La tesi indaga l’esperienza del teatro comunitario, una delle espressioni artistiche più originali e pressoché sconosciute nel panorama teatrale novecentesco, che ha avuto in Argentina un punto di riferimento fondamentale. Questo fenomeno, che oggi conta cinquanta compagnie dal nord al sud del paese latinoamericano, e qualcuna in Europa, affonda le sue radici nella Buenos Aires della post-dittatura, in una società che continua a risentire degli esiti del terrore di Stato. Il teatro comunitario nasce dalla necessità di un gruppo di persone di un determinato quartiere di riunirsi in comunità e comunicare attraverso il teatro, con l'obiettivo di costruire un significato sociale e politico. La prima questione messa a fuoco riguarda la definizione della categoria di studio: quali sono i criteri che consentono di identificare, all’interno della molteplicità di pratiche teatrali collettive, qualcosa di sicuramente riconducibile a questo fenomeno. Nel corso dell’indagine si è rivelata fondamentale la comprensione dei conflitti dell’esperienza reale e l’individuazione dei caratteri comuni, al fine di procedere a un esercizio di generalizzazione. La ricerca ha imposto la necessità di comprendere i meccanismi mnemonici e identitari che hanno determinato e, a loro volta, sono stati riattivati dalla nascita di questa esperienza. L’analisi, supportata da studi filosofici e antropologici, è volta a comprendere come sia cambiata la percezione della corporeità in un contesto di sparizione dei corpi, dove il lavoro sulla memoria riguarda in particolare i corpi assenti (desaparecidos). L’originalità del tema ha imposto la riflessione su un approccio metodologico in grado di esercitare una adeguata funzione euristica, e di fungere da modello per studi futuri. Sono stati pertanto scavalcati i confini degli studi teatrologici, con particolare attenzione alle svolte culturali e storiche che hanno preceduto e affiancato l’evoluzione del fenomeno.
Resumo:
La tesi consiste nel realizzare una infrastruttura che mantenga il modello tipico dello Spatial Computing e coniughi al meglio le tecnologie location-based come GPS, NFC e BLE, per permettere ai moderni smart-devices Android di cooperare e auto-organizzarsi al fine di compiere un certo task definito a livello applicativo.
Resumo:
Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.
Resumo:
a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
L'analisi della segmentazione, viene utilizzata per identificare sottogruppi omogenei all'interno di una popolazione generale. La segmentazione è particolarmente importante se la concorrenza varia nei diversi sottomercati all'interno di un settore in modo tale che alcuni sono più attraenti di altri. Il lavoro di tesi svolto è stato organizzato in quattro capitoli. Nel primo si parla della strategia e dell'importanza che essa riveste per un'azienda, e si analizzanno le caratteristiche di una strategia di successo. Nel secondo capitolo si trattano tre aspetti vitali di un'azienda : la vision, la mission e gli obiettivi. Nel terzo capitolo si parla del modello che Porter ha sviluppato per fornire un quadro di riferimento per la comprensione della competitività strategica di un'impresa all'interno di un mercato specifico. Si definisce formalmente cosa si intende per teoria dei giochi e si presenta quello che probabilmente è l'esempio più noto di questa teoria : il dilemma del prigioniero - un gioco di cooperazione a somma zero. Nel quarto capitolo si analizza la segmentazione del mercato italiano, si fà l'analisi dell'ambiente esterno e vedremo infatti che un'azienda prima di creare piani di business o di prendere decisioni, deve conoscere l'ambiente su cui opera. Ciò può essere ottenuto attraverso un analisi PESTEL.Il capitolo si conclude con l'analisi di un campione di azende su cui calcoleremo alcuni indici medi di redditività, il Return On Assets (ROA), il Return On common Equity (ROE)e l'Earnings Before Interests Taxes and Amortization (EBITA).
Resumo:
Uno dei settori che più si stanno sviluppando nell'ambito della ricerca applicata è senza dubbio quello dell'elettronica organica. Nello specifico lo studio è sospinto dagli indubbi vantaggi che questi dispositivi porterebbero se venissero prodotti su larga scala: basso costo, semplicità realizzativa, leggerezza, flessibilità ed estensione. È da sottolineare che dispositivi basati su materiali organici sono già stati realizzati: si parla di OLED (Organic Light Emitting Diode) LED realizzati sfruttando le proprietà di elettroluminescenza di alcuni materiali organici, OFET (Organig Field Effect Transistor) transistor costruiti con semiconduttori organici, financo celle solari che sfruttano le buone proprietà ottiche di questi composti. Oggetto di analisi di questa tesi è lo studio delle proprietà di trasporto di alcuni cristalli organici, al fine di estrapolarne la mobilità intrinseca e verificare come essa cambi se sottoposti a radiazione x. I due cristalli su cui si è focalizzata questa trattazione sono il 1,5-Dinitronaphtalene e il 2,4-Dinitronaphtol; su di essi è stata eseguita una caratterizzazione ottica e una elettrica, in seguito interpretate con il modello SCLC (Space Charge Limited Current). I risultati ottenuti mostrano che c'è una differenza apprezzabile nella mobilità nei due casi con e senza irraggiamento con raggi x.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.