177 resultados para Formate
Resumo:
La testimonianza è riconosciuta in epistemologia come una fonte fondamentale di conoscenza. Meno consenso c’è riguardo lo status epistemico delle credenze formate e intrattenute su base testimoniale: la questione è se la testimonianza fornisca di per sé le ragioni per affidarvisi, o se tali ragioni siano riducibili alla giustificazione fornita da percezione, memoria e ragionamento. Il dibattito circa lo status epistemico delle credenze acquisite tramite testimonianza ha dato origine a due linee di pensiero contrapposte: il riduzionismo e l’anti-riduzionismo. Secondo gli antiriduzionisti, che si rifanno al pensiero di Thomas Reid, la testimonianza è una fonte basica di giustificazione, alla pari di percezione, memoria e ragionamento. Ciò significa che il soggetto che riceve testimonianza è giustificato a crederne il contenuto in assenza di defeaters rilevanti. I riduzionisti, che fanno capo al lavoro di David Hume, sostengono al contrario che, oltre all’assenza di defeaters rilevanti, per poter credere giustificatamente il contenuto di una testimonianza il soggetto deve essere in possesso di ragioni positive non-testimoniali. Queste ragioni sono normalmente rintracciate in un’induzione che parte dalla memoria dell’osservazione di una generale conformità tra i fatti e le testimonianze, e conclude che un certo tipo di testimone, di circostanza, di contesto, o di contenuto veicolato sono fonti attendibili di informazioni. La critica principale che viene mossa contro l’antiriduzionismo è che sembra approvare la credulità e l’irresponsabilità epistemica . Mostrerò al contrario che la conoscenza testimoniale non sia riducibile ad alcun tipo di inferenza e che la giustificazione che fornisce è in linea con un resoconto del processo che costituisce testimonianza in termini di norme e di committment. Sosterrò una tesi antiriduzionista basata su un resoconto affidabilista della giustificazione che si spiega nei termini dell’esercizio di abilità epistemiche acquisite entro un ambiente epistemico dove le stesse sono profondamente radicate. Un resoconto dell’asserzione nei termini delle norme da cui è regolata mostrerà che la credenza testimoniale è giustificata in virtù della conoscenza che è presupposta dall’asserzione, che della testimonianza è la forma paradigmatica.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.
Resumo:
The work presented in this doctoral thesis is a facile procedure, thermal decomposition, forrnthe synthesis of different types of monodisperse heterodimer M@iron oxide (M= Cu, Co, Nirnand Pt) and single ferrites, MFe2O4 (M= Cu and Co), nanoparticles. In the following chapter,rnwe study the synthesis of these monodiperse nanoparticles with the similar iron precursorrn(iron pentacarbonyl) and different transition metal precursors such as metalrnacetate/acetylacetonate/formate precursors in the presence of various surfactants and solvents.rnAccording to their decomposition temperatures and reducing condition, a specific and suitablernroute was designed for the formation of Metal@Metal oxide or MFe2O4 nanoparticlesrn(Metal/M=transition metal).rnOne of the key purposes in the formation of nanocrystals is the development of syntheticrnpathways for designing and controlling the composition, shape and size of predictedrnnanostructures. The ability to arrange different nanosized domains of metallic and magneticrnmaterials into a single heterodimer nanostructure offers an interesting direction to engineerrnthem with multiple functionalities or enhanced properties of one domain. The presence andrnrole of surfactants and solvents in these reactions result in a variety of nanocrystal shapes. Therncrystalline phase, the growth rate and the orientation of growth parameters along certainrndirections of these structures can be chemically modulated by using suitable surfactants. In allrnnovel reported heterodimer nanostructures in this thesis, initially metals were preformed andrnthen by the injection of iron precursor in appropriate temperature, iron oxide nanoparticlesrnwere started to nucleate on the top or over the surfaces of metal nanoparticles. Ternary phasesrnof spherical CuxFe3-xO4 and CoFe2O4 ferrites nanoparticles were designed to synthesis just byrnlittle difference in diffusion step with the formation of mentioned phase separated heterodimerrnnanoparticles. In order to use these magnetic nanoparticles in biomedical and catalysisrnapplications, they should be transferred into the water phase solution, therefore they werernfunctionalized by a multifunctional polymeric ligand. These functionalized nanoparticles werernstable against aggregation and precipitation in aqueous media for a long time. Magneticrnresonance imaging and catalytic reactivities are two promising applications which have beenrnutilized for these magnetic nanoparticles in this thesis.rnThis synthetic method explained in the following chapters can be extended to the synthesis ofrnother heterostructured nanomaterials such as Ni@MnO or M@M@iron oxide (M=transitionrnmetal) or to use these multidomain particles as building blocks for higher order structures.
Resumo:
Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.
Resumo:
Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
Die vorliegende kulturwissenschaftlich ausgerichtete Arbeit befasst sich mit der Konstruktion und Inszenierung von Realität, insbesondere im Verhältnis zu Körperdiskursen und Körperpraktiken in Makeover-Sendungen sowie mit deren komplexen politischen und kulturellen Implikationen. Die leitenden Fragen der vorliegenden Arbeit sind: Wie wird der Körper in den ausgewählten Formaten dargestellt? Wie wird er erzählt und mit welchen (Film-)Techniken in Szene gesetzt? Welche expliziten und impliziten Körperbilder liegen den Darstellungen zu Grunde? Welche kulturellen und politischen Normen werden über den Körper konstruiert? Welche Rolle spielt diese Konstruktion des Körpers für die Darstellung von „Realität“ in den entsprechenden Formaten? Was ist der größere gesellschaftliche Zusammenhang dieser Darstellung? rnTrotz der Vielzahl und Komplexität der Darstellungsweisen des Körpers soll anhand verschiedener repräsentativ ausgewählter Reality-TV-Formate eine Annäherung an die heterogene kulturelle sowie politische Tragweite derselben geleistet werden. Hierzu werden insbesondere Formate bevorzugt, die explizit die Transformation des Körpers thematisieren. Dies kann durch kosmetische, d.h. nicht-operative Veränderungen (Kleidung, Make-up, Frisur), Fitness und Ernährung bis hin zu medizinischen Eingriffen wie etwa plastischer Chirurgie erfolgen.rnAls erstes wird der Untersuchungsgegenstand genauer eingegrenzt, wobei sich zeigt, dass sich exakte Grenzziehungen aufgrund des schwer greifbaren Reality-TV-Genres und der transmedialen Eigenschaft des Makeover-Fensehtextes als Herausforderung erweisen. Danach werden die kulturwissenschaftlichen Annahmen, die dieser Arbeit zugrunde liegen, ausgeführt. Darüber hinaus wird das revolutionäre Forschungsfeld der Fat Studies eruiert und auch der körpertheoretische Zugang erläutert. Abschließend wird näher auf den filmnarratologischen Zugang, der den Analysen als theoretische, aber auch methodische Grundlage dient, eingegangen. Zudem wird behandelt wie der Körper in den behandelten Makeover-Formaten zunächst erzählbar gemacht und erzählt wird. Die Körper der Teilnehmer werden zunächst in einen ökonomischen Diskurs der Maße und Zahlen überführt, um im weiteren Verlauf die „Transformation“ auch diskursiv dramatisieren zu können. Die über die Ökonomisierung vorbereitete, zumeist als märchenhaft dargestellte, Verwandlung der Teilnehmer, kulminiert immer in der Gegenüberstellung des „Vorher“-Bildes und des „Nachher“-Bildes. Diese Ökonomisierung ist allerdings nur die narrative Grundlage einer viel umfassenderen, in den Sendungen meist implizit vermittelten Selbstregierungstechnologie, der „Gouvernementalität“, die kontrovers im Hinblick auf Vertreter einer Affekttheorie, die die Vermittlung der besagten Gouvernementalität in Zweifel ziehen, diskutiert wird. Die Kernthese der vorliegenden Arbeit, die den Körper als entscheidendes, die „Realität“ der Makeover-Formate affirmierendes Element versteht, ist ferner eng mit dem Begriff der „Authentizität“ verknüpft. „Authentische“ Effekte sind oft das selbsterklärte Ziel der Einsätze des Körpers im Reality-TV und äußern sich in unterschiedlichen Erzähltechniken wie den autobiografischen Elementen der Formate. Die bereits im Genre des Reality-TV angelegte Selbstreflexivität sowohl auf Inhalts- als auch auf Produktionsseite wird abschließend kontextualisiert und bewertet. Letztendlich stellt sich die Frage, welche kulturellen Widerstände und Spielarten trotz der sehr dogmatisch wirkenden Inhalte der Makeover-Serien erhalten bleiben.
Resumo:
Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.
Resumo:
Le galassie spirali hanno la forma di un disco, con un nucleo globulare più o meno prominente detto bulge e alcune braccia a spirale che si avvolgono attorno ad esso. Il tutto è in rotazione attorno all'asse del disco, con una velocità angolare che varia dal centro alla periferia. Le spirali vengono designate con la lettera S, seguita da una lettera (a, b o c) a seconda dell'importanza dei bracci. Nelle spirali di tipo Sa, i bracci sono piuttosto stretti e il nucleo è preponderante, nelle Sb invece i bracci sono più prominenti e nelle Sc sono ancora più importanti rispetto al nucleo e hanno anche un aspetto piu' "diffuso". Le spirali barrate, che si indicano con la notazione SB seguita dalle lettere a, b o c, sono identiche alle precedenti, salvo per il fatto che le braccia partono dalle estremità di una barra di stelle e gas che attraversa diametralmente il bulge, anziché direttamente da questo. Il contenuto di queste galassie a spirale è piuttosto disomogeneo; la densità della materia diminuisce dal centro verso la periferia. Inoltre possiedono una grande quantità di gas mischiato a polvere, dal quale si formano tutt'ora molte nuove stelle. Le stelle sono concentrate nel nucleo, nei bracci e in un alone di ammassi globulari disposti intorno alla galassia. Inoltre, questo gas è soggetto a processi violenti come l'esplosione di supernoavae, che vi immettono grandi quantità di energia e altro materiale, perciò la materia interstellare è disposta in modo piuttosto irregolare, concentrata in nubi di varie dimensioni. E da queste nubi si formano le stelle. Nella prima parte dell'elaborato ci occuperemo del mezzo interstellare: temperatura e densità differenziano le fasi dell' ISM, da qui discendono i vari processi di emissione/assorbimento che vedremo nella seconda parte. Principalmente andremo ad analizzare cinque bande di emissione (banda X, ottica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d'onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell'emissione X della galassia, mentre regioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emissione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell'emissione radio nel continuo di una galassia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo interstellare, siano rispettivamente la causa principale dell'emissione gamma e infrarossa.
Resumo:
Since the late 1990s and early 2000s, derivatives of well-known designer drugs as well as new psychoactive compounds have been sold on the illicit drug market and have led to intoxications and fatalities. The LC-MS/MS screening method presented covers 31 new designer drugs as well as cathinone, methcathinone, phencyclidine, and ketamine which were included to complete the screening spectrum. All but the last two are modified molecular structures of amphetamine, tryptamine, or piperazine. Among the amphetamine derivatives are cathinone, methcathinone, 3,4-DMA, 2,5-DMA, DOB, DOET, DOM, ethylamphetamine, MDDMA, 4-MTA, PMA, PMMA, 3,4,5-TMA, TMA-6 and members of the 2C group: 2C-B, 2C-D, 2C-H, 2C-I, 2C-P, 2C-T-2, 2C-T-4, and 2C-T-7. AMT, DPT, DiPT, MiPT, DMT, and 5MeO-DMT are contained in the tryptamine group, BZP, MDBP, TFMPP, mCPP, and MeOPP in the piperazine group. Using an Applied Biosystems LC-MS/MS API 365 TurboIonSpray it is possible to identify all 35 substances. After addition of internal standards and mixed-mode solid-phase extraction the analytes are separated using a Synergi Polar RP column and gradient elution with 1 mM ammonium formate and methanol/0.1% formic acid as mobile phases A and B. Data acquisition is performed in MRM mode with positive electro spray ionization. The assay is selective for all tested substances. Limits of detection were determined by analyzing S/N-ratios and are between 1.0 and 5.0 ng/mL. Matrix effects lie between 65% and 118%, extraction efficiencies range from 72% to 90%.
Resumo:
This purpose of this project was to investigate the collision-induced dissociation of dipeptides in negative ion electrospray ionization tandem mass spectrometry, with a focus on the mechanism of the production of imidazole-type fragments not previously reported from the fragmentation of the dipeptides being studied. The majority of the dipeptides studied were alanine N-terminal or serine C-terminal dipeptides. All dipeptides were dissolved in 50:50 methanol:water, 3 mM ammonium formate. Collision-induced dissociation in the collision cell of a triple quadrupole mass spectrometer was used to fragment [M-H]- precursor ions. Accurate mass measurements confirmed the molecular formula of the imidazole-type fragments. Further MS/MS studies were performed to provide information about the fragmentation mechanism for the formation of the imidazole-type fragments. The m/z values of intermediate ions in the formation of the imidazole-type fragments were confirmed through second-generation product ion scans and precursor ion scans. More sophisticated instrumentation will be required to further probe the structure of the intermediate ions.
Resumo:
The Carrington Event of 1859 is considered to be among the largest space weather events of the last 150 years. We show that only one out of 14 well-resolved ice core records from Greenland and Antarctica has a nitrate spike dated to 1859. No sharp spikes are observed in the Antarctic cores studied here. In Greenland numerous spikes are observed in the 40 years surrounding 1859, but where other chemistry was measured, all large spikes have the unequivocal signal, including co-located spikes in ammonium, formate, black carbon and vanillic acid, of biomass burning plumes. It seems certain that most spikes in an earlier core, including that claimed for 1859, are also due to biomass burning plumes, and not to solar energetic particle (SEP) events. We conclude that an event as large as the Carrington Event did not leave an observable, widespread imprint in nitrate in polar ice. Nitrate spikes cannot be used to derive the statistics of SEPs.
Resumo:
The L-arginine/agmatine antiporter AdiC is a key component of the arginine-dependent extreme acid resistance system of Escherichia coli. Phylogenetic analysis indicated that AdiC belongs to the amino acid/polyamine/organocation (APC) transporter superfamily having sequence identities of 15-17% to eukaryotic and human APC transporters. For functional and structural characterization, we cloned, overexpressed, and purified wild-type AdiC and the point mutant AdiC-W293L, which is unable to bind and consequently transport L-arginine. Purified detergent-solubilized AdiC particles were dimeric. Reconstitution experiments yielded two-dimensional crystals of AdiC-W293L diffracting beyond 6 angstroms resolution from which we determined the projection structure at 6.5 angstroms resolution. The projection map showed 10-12 density peaks per monomer and suggested mainly tilted helices with the exception of one distinct perpendicular membrane spanning alpha-helix. Comparison of AdiC-W293L with the projection map of the oxalate/formate antiporter from Oxalobacter formigenes, a member from the major facilitator superfamily, indicated different structures. Thus, two-dimensional crystals of AdiC-W293L yielded the first detailed view of a transport protein from the APC superfamily at sub-nanometer resolution.
Resumo:
The applications of the primary allyl amines afforded by the acetyl derivative of Baylis-Hillman adducts of acrylate for the synthesis of heterocycles using robust reactions are described. In the first strategy a one-pot synthesis of 5-benzyl-4(3H)-pyrimidinones have been achieved via N-formylation of the amines in the presence of neat formamide followed by ammonium formate-mediated cyclization. These pyrimidinones have been demonstrated to be excellent precursor to the 4-pyridinamine derivatives. In the second strategy the synthesis of 2-benzylidene-2,3-dihydro-pyrrolizin-1-ones have been accomplished via treatment of allyl amine with dimethoxyfuran followed by saponification and PPA-mediated intramolecular cyclization.