989 resultados para scintillatori organici, discriminazione neutroni-raggi gamma,algoritmi digitali


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La definizione dell’ordinamento dell’Unione come ordinamento costituzionale è centrale, ma resta frammentata. Per restituirle sistematicità è importante individuare un principio sul quale poggiarne il consolidamento. Per questo si è scelto di esaminare il principio di non discriminazione attraverso l’analisi della giurisprudenza, con l’obiettivo di verificare se questo principio è parte fondamentale dell’identità costituzionale dell’Unione Europea. Nella prima parte della tesi si analizza la struttura del giudizio sulla discriminazione davanti alla CGUE e davanti alla CEDU, mettendo in evidenza come la struttura ricordi sempre di più quella del giudizio di costituzionalità. Nella seconda parte ci si concentra sul contributo dato dal principio di non discriminazione all’identità costituzionale dell’Unione Europea attraverso la lotta contro specifiche tipologie di discriminazione. Poiché i motivi di discriminazione sono molto numerosi, si è stabilito di esaminare quei motivi che sono regolati dal diritto derivato. Per questo la seconda parte dell’analisi si è concentrata sulle discriminazioni a motivo della nazionalità (dir. 2004/38/CE), della razza (dir. 2000/43/CE), del genere (dir. 2006/54/CE, dir. 2004/113/CE) dell’età, disabilità, religione ed orientamento sessuale (dir. 2000/78/CE). Dall’analisi della giurisprudenza e del diritto derivato che ne dà attuazione è possibile comprendere che questo principio, oltre ad essere sostenuto da un vero e proprio giudizio di legittimità costituzionale (il rinvio pregiudiziale), ha gli strumenti necessari a permetterne lo sviluppo tenendo conto delle identità costituzionali degli stati membri e può aiutare ad offrire delle risposte rispetto a uno dei problemi fondamentali inerenti all’efficacia del diritto dell’Unione Europea: la tensione fra il principio di attribuzione e la dottrina degli effetti diretti. Le conclusioni di questo lavoro portano a sostenere che è possibile individuare una giurisprudenza della Corte che, attraverso alcuni passaggi fondamentali (le sentenze Mangold, Kucukdeveci, Hay, Deckmyn e Zambrano), definisce il principio di non discriminazione come principio fondamentale, e costituzionale, del diritto dell’Unione Europea.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodità di utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis work aims to develop original analytical methods for the determination of drugs with a potential for abuse, for the analysis of substances used in the pharmacological treatment of drug addiction in biological samples and for the monitoring of potentially toxic compounds added to street drugs. In fact reliable analytical techniques can play an important role in this setting. They can be employed to reveal drug intake, allowing the identification of drug users and to assess drug blood levels, assisting physicians in the management of the treatment. Pharmacological therapy needs to be carefully monitored indeed in order to optimize the dose scheduling according to the specific needs of the patient and to discourage improper use of the medication. In particular, different methods have been developed for the detection of gamma-hydroxybutiric acid (GHB), prescribed for the treatment of alcohol addiction, of glucocorticoids, one of the most abused pharmaceutical class to enhance sport performance and of adulterants, pharmacologically active compounds added to illicit drugs for recreational purposes. All the presented methods are based on capillary electrophoresis (CE) and high performance liquid chromatography (HPLC) coupled to various detectors (diode array detector, mass spectrometer). Biological samples pre-treatment was carried out using different extraction techniques, liquid-liquid extraction (LLE) and solid phase extraction (SPE). Different matrices have been considered: human plasma, dried blood spots, human urine, simulated street drugs. These developed analytical methods are individually described and discussed in this thesis work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio del flusso di neutroni e della funzione di risoluzione del progetto n_TOF al CERN di Ginevra. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che stanno alla base di questo progetto di collaborazione internazionale, si trattano sommariamente alcune delle più importanti applicazioni della fisica neutronica e si descrive la facility di Ginevra. Nella parte finale del lavoro si presenta una misura di precisione ottenuta dal flusso di neutroni utilizzato nell'esperimento n_TOF nel 2012, la cui conoscenza è di fondamentale importanza per la misura di sezioni d'urto di reazioni indotte da neutroni. L'esperimento n_TOF ha proprio lo scopo di misurare sezioni d'urto di reazioni indotte da neutroni, in particolare reazioni di fissione e cattura neutronica. Ad n_TOF si utilizza un fascio di protoni, accelerato a 20 GeV dal ProtoSincrotrone del CERN, per crearne due di neutroni, uno verticale e uno orizzontale, tramite spallazione nucleare indotta su un bersaglio di Piombo. Dalle analisi dei dati si deduce come questo studio possa essere maggiormente ottimizzato migliorando la funzione di risoluzione energetica dei neutroni, attraverso simulazioni Monte Carlo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In my work I derive closed-form pricing formulas for volatility based options by suitably approximating the volatility process risk-neutral density function. I exploit and adapt the idea, which stands behind popular techniques already employed in the context of equity options such as Edgeworth and Gram-Charlier expansions, of approximating the underlying process as a sum of some particular polynomials weighted by a kernel, which is typically a Gaussian distribution. I propose instead a Gamma kernel to adapt the methodology to the context of volatility options. VIX vanilla options closed-form pricing formulas are derived and their accuracy is tested for the Heston model (1993) as well as for the jump-diffusion SVJJ model proposed by Duffie et al. (2000).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi di raccomandazione sono una tipologia di sistemi di filtraggio delle informazioni che cercano di prevedere la valutazione o la preferenza che l'utente potrebbe dare ad un elemento. Sono diventati molto comuni in questi ultimi anni e sono utilizzati da una vasta gamma di applicazioni, le più popolari riguardano film, musica, notizie, libri, articoli di ricerca e tag di social networking. Tuttavia, ci sono anche sistemi di raccomandazione per i ristoranti, servizi finanziari, assicurazioni sulla vita e persone (siti di appuntamenti online, seguaci di Twitter). Questi sistemi, tuttora oggetto di studi, sono già applicati in un'ampia gamma di settori, come ad esempio le piattaforme di scoperta dei contenuti, utilizzate on-line per aiutare gli utenti nella ricerca di trasmissioni televisive; oppure i sistemi di supporto alle decisioni che utilizzano sistemi di raccomandazione avanzati, basati sull'apprendimento delle conoscenze, per aiutare i fruitori del servizio nella soluzioni di problemi complessi. Inoltre, i sistemi di raccomandazione sono una valida alternativa agli algoritmi di ricerca in quanto aiutano gli utenti a scoprire elementi che potrebbero non aver trovato da soli. Infatti, sono spesso implementati utilizzando motori di ricerca che indicizzano dati non tradizionali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurde die Rolle von myelomonozytären Zellen, IFN-gamma (Interferon gamma), MyD88 (myeloid differentiation factor 88) und zugrundeliegenden Signalwege in der Angiotensin II (ATII)-induzierten vaskulären Inflammation, Dysfunktion und arteriellen Hypertonie untersucht. Wie bereits veröffentlichte Vordaten aus meiner Arbeitsgruppe zeigten, schützt die Depletion von Lysozym M (LysM)+ myelomonozytären Zellen (Diphteriatoxin-vermittelt in Mäusen, die transgen für den humanen Diphtheriatoxin-Rezeptor sind, LysMiDTR Mäuse) vor der ATII-induzierten vaskulären Dysfunktion und arterieller Hypertonie, und kann durch adoptiven Zelltransfer von Wildtyp Monozyten wiederhergestellt werden. In meiner Arbeit konnte ich zeigen, dass die Rekonstitution von Monozyten-depletierten LysMiDTR Mäusen mit Wildtyp Monozyten den Phänotyp der vaskulären Dysfunktion wiederherstellen kann, die Rekonstitution mit gp91phox-/y oder Agtr1-/- Monozyten jedoch nicht. Die Hypertonus-mediierenden Effekte dieser infiltrierenden Monozyten scheinen demnach von der intakten ATII und NADPH Oxidase Signalübertragung in diesen Zellen abhängig zu sein. Vermutlich ebenfalls für die Aktivierung der Monozyten funktionell wichtig sind IFN-gamma, produziert durch NK-Zellen, und der Transkriptionsfaktor T-bet (T-box expressed in T cells), exprimiert von NK-Zellen und Monozyten. IFN-gamma-/- Mäuse waren partiell geschützt vor der ATII-induzierten vaskulären Dysfunktion und charakterisiert durch reduzierte Level an Superoxid im Gefäß im Vergleich zu ATII-infundierten Wildtyp Mäusen. IFN-gamma-/- und T-bet defiziente Tbx21-/- Mäuse zeichneten sich ferner durch eine reduzierte ATII-mediierte Rekrutierung von NK1.1+ NK-Zellen, als ein Hautproduzent von IFN-gamma, sowie CD11b+GR-1low Interleukin-12 (IL-12) kompetenten Monozyten aus. Durch Depletions- und adoptive Transferexperimente konnte ich in dieser Arbeit NK-Zellen als essentielle Mitstreiter in der vaskulären Dysfunktion identifizieren und stellte fest, dass T-bet+LysM+ myelomonozytäre Zellen für die NK-Zellrekrutierung in die Gefäßwand und lokale IFN-gamma Produktion benötigt werden. Damit wurde erstmals NK-Zellen eine essentielle Rolle in der ATII-induzierten vaskulären Dysfunktion zugeschrieben. Außerdem wurde der T-bet-IFN-gamma Signalweg und die gegenseitige Monozyten-NK-Zellaktivierung als ein potentielles therapeutisches Ziel in kardiovaskulären Erkrankungen aufgedeckt. Des Weiteren identifizierte ich in meiner Arbeit MyD88 als ein zentrales Signalmolekül in der ATII-getriebenen Inflammation und vaskulären Gefäßschädigung. MyD88 Defizienz reduzierte den ATII-induzierten Anstieg des systolischen Blutdrucks und die endotheliale und glattmuskuläre vaskuläre Dysfunktion. Zusätzlich waren die vaskuläre Superoxid-Bildung sowie die Expressionslevel der NADPH Oxidase, der wichtigsten Quelle für oxidativem Stress im Gefäß, in ATII-infundierten MyD88-/- Mäusen im Vergleich zum Wildtyp reduziert. Mit Hilfe von durchflusszytometrischen Analysen deckte ich zudem auf, dass die ATII-induzierte Einwanderung von CD45+ Leukozyten, insbesondere CD11b+Ly6G-Ly6Chigh inflammatorischen Monozyten in MyD88-/- Mäusen signifikant abgeschwächt war. Diese Resultate wurden durch immunhistochemische Untersuchung von Aortengewebe auf CD68+, F4/80+ und Nox2+ Makrophagen/Phagozyten sowie Expressionsanalysen von Inflammationsmarkern untermauert. Analysen der mRNA Expression in Aortengewebe zeigten ferner eine in Wildtyp Mäusen nach ATII Infusion tendenziell gesteigerte Expression von inflammatorischen Monozytenmakern sowie eine abnehmende Expression von reparativen Monozytenmarken, während dieser Shift zu einem proinflammatorsichen Phänotyp in MyD88-/- blockiert zu sein schien. Dies zeigt eine Rolle von MyD88 in der terminalen Differenzierung von myelomonozytären Zellen an. Um dies weitergehend zu untersuchen und aufzudecken, ob die MyD88 Effekte abhängig sind von Zellen der hämatopoetischen Linie oder Gewebszellen, wurden Knochenmarktransferexperimente durchgeführt. MyD88 Defizienz in Knochenmark-abstammende Zellen reduzierte die ATII-induzierte vaskuläre Dysfunktion und Infiltration der Gefäßwand mit CD45+ Leukozyten und inflammatorischen myelomonozytären Zellen. Die protektiven Effekte der MyD88 Defizienz in der Angiotensin II-induzierten Inflammation konnten nicht auf Signalwege über die Toll-like Rezeptoren TLR2, -7 oder -9 zurückgeführt werden, wie die Untersuchung der vaskulären Reaktivität entsprechender Knockout Mäuse zeigte. Zusammenfassend konnte ich in meiner Arbeit zeigen, dass die Infiltration der Gefäßwand mit Nox2+AT1R+T-bet+MyD88+ myelomonozytären Zellen und die Wechselwirkung und gegenseitige Aktivierung dieser Zellen mit IFN-gamma produzierenden NK-Zellen eine zentrale Bedeutung in der Pathogenese der Angiotensin II (ATII)-induzierten vaskulären Dysfunktion, Inflammation und arteriellen Hypertonie einnehmen.