981 resultados para Podridão mole


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The state of the art of the studies on the production of Brazilian sandy beach macrofauna was analyzed on the basis of the data available in the literature. For this purpose, the representativeness of the production dataset was examined by latitudinal distribution, degree of exposure and morphodynamic state of beaches, taxonomic groups, and methods employed. A descriptive analysis was, further, made to investigate the trends in production of the more representative taxonomic groups and species of sandy beach macrofauna. A total of 69 macrofauna annual production estimates were obtained for 38 populations from 25 studies carried out between 22º56'S and 32º20'S. Production estimates were restricted to populations on beaches located on the southern and southeastern Brazilian coast. Most of the populations in the dataset inhabit exposed dissipative sandy beaches and are mainly represented by mollusks and crustaceans, with a smaller number of polychaetes. The trends in production among taxonomic groups follow a similar pattern to that observed on beaches throughout the world, with high values for bivalves and decapods. The high turnover rate (P/B ratio) of the latter was due to the presence of several populations of the mole crab Emerita brasiliensis, which can attain high values of productivity, in the dataset. Most of the studies focus on the comparison of production and, especially, of P/B ratio according to life history traits in populations of the same species/taxonomic group. Despite the importance of life history-production studies, other approaches, such as the effect of man-induce disturbances on the macrofauna, should be undertaken in these threatened environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The effects of aluminum (Al) on the activities of antioxidant enzymes and ferritin expression were studied in cell suspension cultures of two varieties of Coffea arabica, Mundo Novo and Icatu, in medium with pH at 5.8. The cells were incubated with 300 µM Al3+, and the Al speciation as Al3+ was 1.45% of the mole fraction. The activities of superoxide dismutase (SOD), catalase (CAT), and glutathione S-transferase (GST) were increased in Mundo Novo, whereas glutathione reductase (GR) and guaiacol peroxidase (GPOX) activities remained unchanged. SOD, GR, and GST activities were increased in Icatu, while CAT activity was not changed, and GPOX activity decreased. The expression of two ferritin genes (CaFer1 and CaFer2) were analyzed by Real-Time PCR. Al caused a downregulation of CaFER1 expression and no changes of CaFER2 expression in both varieties. The Western blot showed no alteration in ferritin protein levels in Mundo Novo and a decrease in Icatu. The differential enzymes responses indicate that the response to Al is variety-dependent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuclear Magnetic Resonance (NMR) is a branch of spectroscopy that is based on the fact that many atomic nuclei may be oriented by a strong magnetic field and will absorb radiofrequency radiation at characteristic frequencies. The parameters that can be measured on the resulting spectral lines (line positions, intensities, line widths, multiplicities and transients in time-dependent experi-ments) can be interpreted in terms of molecular structure, conformation, molecular motion and other rate processes. In this way, high resolution (HR) NMR allows performing qualitative and quantitative analysis of samples in solution, in order to determine the structure of molecules in solution and not only. In the past, high-field NMR spectroscopy has mainly concerned with the elucidation of chemical structure in solution, but today is emerging as a powerful exploratory tool for probing biochemical and physical processes. It represents a versatile tool for the analysis of foods. In literature many NMR studies have been reported on different type of food such as wine, olive oil, coffee, fruit juices, milk, meat, egg, starch granules, flour, etc using different NMR techniques. Traditionally, univariate analytical methods have been used to ex-plore spectroscopic data. This method is useful to measure or to se-lect a single descriptive variable from the whole spectrum and , at the end, only this variable is analyzed. This univariate methods ap-proach, applied to HR-NMR data, lead to different problems due especially to the complexity of an NMR spectrum. In fact, the lat-ter is composed of different signals belonging to different mole-cules, but it is also true that the same molecules can be represented by different signals, generally strongly correlated. The univariate methods, in this case, takes in account only one or a few variables, causing a loss of information. Thus, when dealing with complex samples like foodstuff, univariate analysis of spectra data results not enough powerful. Spectra need to be considered in their wholeness and, for analysing them, it must be taken in consideration the whole data matrix: chemometric methods are designed to treat such multivariate data. Multivariate data analysis is used for a number of distinct, differ-ent purposes and the aims can be divided into three main groups: • data description (explorative data structure modelling of any ge-neric n-dimensional data matrix, PCA for example); • regression and prediction (PLS); • classification and prediction of class belongings for new samples (LDA and PLS-DA and ECVA). The aim of this PhD thesis was to verify the possibility of identify-ing and classifying plants or foodstuffs, in different classes, based on the concerted variation in metabolite levels, detected by NMR spectra and using the multivariate data analysis as a tool to inter-pret NMR information. It is important to underline that the results obtained are useful to point out the metabolic consequences of a specific modification on foodstuffs, avoiding the use of a targeted analysis for the different metabolites. The data analysis is performed by applying chemomet-ric multivariate techniques to the NMR dataset of spectra acquired. The research work presented in this thesis is the result of a three years PhD study. This thesis reports the main results obtained from these two main activities: A1) Evaluation of a data pre-processing system in order to mini-mize unwanted sources of variations, due to different instrumental set up, manual spectra processing and to sample preparations arte-facts; A2) Application of multivariate chemiometric models in data analy-sis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un livello di sicurezza che prevede l’autenticazione e autorizzazione di un utente e che permette di tenere traccia di tutte le operazioni effettuate, non esclude una rete dall’essere soggetta a incidenti informatici, che possono derivare da tentativi di accesso agli host tramite innalzamento illecito di privilegi o dai classici programmi malevoli come virus, trojan e worm. Un rimedio per identificare eventuali minacce prevede l’utilizzo di un dispositivo IDS (Intrusion Detection System) con il compito di analizzare il traffico e confrontarlo con una serie d’impronte che fanno riferimento a scenari d’intrusioni conosciute. Anche con elevate capacità di elaborazione dell’hardware, le risorse potrebbero non essere sufficienti a garantire un corretto funzionamento del servizio sull’intero traffico che attraversa una rete. L'obiettivo di questa tesi consiste nella creazione di un’applicazione con lo scopo di eseguire un’analisi preventiva, in modo da alleggerire la mole di dati da sottoporre all’IDS nella fase di scansione vera e propria del traffico. Per fare questo vengono sfruttate le statistiche calcolate su dei dati forniti direttamente dagli apparati di rete, cercando di identificare del traffico che utilizza dei protocolli noti e quindi giudicabile non pericoloso con una buona probabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit dem Phasenverhalten von Polyethylen (PE) in nicht-reaktiven und in reaktiven Systemen. Von drei eng verteilten Polyethylenen (Mw = 6,4, 82 bzw. 380 kg/mol) in n-Hexan sowie für das System 2,2-Dimethylbutan / PE 82 wurde die Entmischung in Abhängigkeit von der Zusammensetzung, dem Druck und der Temperatur experimentell bestimmt. Die Modellierung der Trübungskurven erfolgte nach der Theorie von Sanchez und Lacombe. Dieser Ansatz beschreibt die Ergebnisse qualitativ und kann in einem engen Temperatur- und Druckbereich für gegebenes Molekulargewicht die kritische Temperatur und den kritischen Druck quantitativ vorhersagen. Durch Extrapolation der kritischen Temperatur der verschiedenen Lösungen von PE in n-Hexan auf unendliches Molekulargewicht nach Shultz-Flory wurde im Druckbereich von 20 bis 100 bar und im Temperaturbereich von 130 bis 200 °C eine Grenzlinie bestimmt. Diese Linie trennt unabhängig vom Molekulargewicht des Polymers und der Zusammensetzung der Mischung das Zweiphasengebiet vom homogenen Bereich. Im Fall des Mischlösungsmittels n-Hexan / 2,2-Dimethylbutan wurde für eine annähernd kritische Polymerkonzentration die Abhängigkeit der Entmischungsbedingungen von der Zusammensetzung untersucht. Durch einfache Erweiterung der Sanchez-Lacombe-Theorie und Einführen eines Fitparameters konnte das ternäre System beschrieben werden. An einer breit verteilten PE-Probe wurden Experimente zur Fraktionierung von PE in n-Hexan durchgeführt. Die Analyse der in den koexistenten Phasen enthaltenen Polymere lieferte Informationen über die Konzentration und die Molekulargewichtsverteilung des PE in diesen Phasen sowie die kritische Zusammensetzung der Mischung. Von verschiedenen PE-Lösungen (Mw = 0,5 kg/mol) wurde die polymerisationsinduzierte Phasenseparation in Isobornylmethacrylat mit und ohne Vernetzer untersucht. Mit 15 Gew.-% PE und in Abwesenheit von Vernetzer findet die Entmischung erst bei hohen Umsätzen statt. Die Charakterisierung der resultierenden Proben zeigte, dass sich etwas mehr als 5 Gew.-% PE im Polyisobornylmethacrylat lösen. Die Glasübergangstemperaturen der Polymermischungen steigen mit steigender Vernetzer- und sinkender Polyethylenkonzentration. Bei Proben mit 15 Gew.-% PE zeigte sich folgendes: 5 Gew.-% Vernetzer führen zu großen PE-Bereichen (150 - 200 nm) in der Matrix und der Kristallinitätsgrad ist gering. Bei der Polymermischung mit 10 Gew.-% Vernetzer bilden sich sehr kleine Polyethylenkristalle (< 80 nm) und der Kristallinitätsgrad ist hoch. Ohne Vernetzer hängt der Kristallinitätsgrad - wie bei reinem PE - von der Abkühlrate ab, mit Vernetzer ist er von ihr unabhängig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hypoxie ist ein Zustand des Sauerstoffmangels, hervorgerufen durch fehlende Verfügbarkeit von Sauerstoff in der Umgebung eines Organismus oder durch pathologisch bedingte unzureichende Nutzbarkeit des Sauerstoffs von Geweben. Die Sensitivität gegenüber Hypoxie variiert enorm im Tierreich zwischen verschiedenen Phyla und Spezies. Die meisten Säugetiere sind nur unzureichend an niedrige Sauerstoffkonzentrationen angepasst, wohingegen einige unterirdisch lebende Säuger sehr resistent gegen Hypoxiestress sind. Um die molekulare Basis der Hypoxietoleranz zu bestimmen, wurden in der vorliegenden Arbeit Globine untersucht, die potenziell in der Lage sind, als respiratorische Proteine zur Hypoxietoleranz von Tieren beizutragen. Dazu wurde die Expression der Globine in der hypoxieresistenten, in Israel lebenden Blindmaus Spalax ehrenbergi mit der Genexpression in der hypoxiesensitiven Ratte (Rattus norvegicus) verglichen. In der vorliegenden Arbeit wurden die erst vor wenigen Jahren entdeckten Globine Neuroglobin und Cytoglobin untersucht, deren exakte physiologische Rolle noch unklar ist, und mit Daten des viel detaillierter untersuchten Myoglobins verglichen. Beim Vergleich der Expression von Cytoglobin und Neuroglobin in Spalax versus Ratte fällt auf, dass Neuroglobin und Cytoglobin bereits unter normoxischen Bedingungen auf mRNA- und Proteinebene in der Blindmaus um einen Faktor von mindesten 2 bis 3 verstärkt exprimiert werden. Bei Myoglobin (als dem Kontrollgen mit bekannter Funktion) konnte auf mRNA-Ebene eine noch weitaus stärkere Expression in Spalax vs. Ratte gefunden werden. Das übergreifende Phänomen der verstärkten Genexpression von Globinen in Spalax kann im Sinne einer Präadaptation an das unterirdische, häufig hypoxische Leben der Blindmaus interpretiert werden. Einen weiteren Hinweis auf eine besondere, spezialisierte Funktion von Neuroglobin in Spalax geben immunhistochemische Daten, die zeigen, dass Neuroglobin im Gehirn von Spalax im Gegensatz zur Ratte nicht nur in Neuronen, sondern auch in Gliazellen exprimiert wird. Dies impliziert Änderungen des oxidativen Stoffwechsels im Nervensystem der hypoxietoleranten Spezies. Die zellulären Expressionsmuster von Cytoglobin erscheinen hingegen in beiden Säugerspezies weitgehend identisch. Es wurde der Frage nachgegangen, ob und wie experimentell induzierte Hypoxie die Genexpression der Globine verändert. Dabei zeigten sich für Neuroglobin und Cytoglobin unterschiedliche Expressionsmuster. Neuroglobin wird unter diversen Sauerstoffmangelbedingungen sowohl in der Ratte als auch in Spalax auf mRNA- und Proteinebene herunterreguliert. Ein ähnliches Regulationsverhalten wurde auch für Myoglobin beobachtet. Die verminderte Expression von Neuroglobin (und evtl. auch Myoglobin) unter Hypoxie ist mit einer gezielten Verringerung der Sauerstoff-Speicherkapazität in Abwesenheit von O2 zu erklären. Ein weiterer denkbarer Grund könnte auch die allgemeine Tendenz sein, unter Hypoxie aus Energiespargründen den Metabolismus herunter zu regulieren. Cytoglobin, das bei normalen Sauerstoffbedingungen nur im Gehirn von Spalax (nicht jedoch in Herz und Leber) ebenfalls um Faktor 2 bis 3 stärker exprimiert wird als in der Ratte, ist mit einiger Sicherheit ebenfalls von adaptivem Nutzen für die Anpassung von Spalax an niedrige Sauerstoffbedingungen, wenngleich seine Funktion unklar bleibt. Unter Hypoxie wird die Cytoglobin-mRNA sowohl in Spalax als auch in der Ratte hochreguliert. Es konnte in der vorliegenden Arbeit dargelegt werden, dass die Expression von Cygb höchstwahrscheinlich durch den Transkriptionsfaktor Hif-1 gesteuert wird, der die molekulare Hypoxieantwort vieler Tierarten zentral steuert. In der vorliegenden Arbeit wurde ebenfalls die Expression von Ngb und Cygb im Gehirn des Hausschweins (Sus scrofa) untersucht. Diese Spezies diente in der Arbeit als weiterer hypoxiesensitiver Organismus sowie als biomedizinisch relevantes Modell für eine Operation an Säuglingen mit angeborenen Herzkrankheiten. Die Versuche haben gezeigt, dass die Gabe bestimmter Medikamente wie dem Immunsuppressivum FK506 zu einer erhöhten Ngb-Konzentration auf mRNA-Ebene führen kann, was potenziell im Zusammenhang mit beobachteten protektiven Effekten der Medikamentengabe während und nach der Herzoperation steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La VI regio augustea di Roma rappresenta uno dei settori urbani maggiormente investiti dalle modifiche radicali compiute dall’uomo nel processo di urbanizzazione della città che ne hanno modificato profondamente la situazione altimetrica e la conformazione originaria. Questi notevoli cambiamenti ebbero origine sin dall’età antica, ma si intensificarono profondamente soprattutto nel periodo rinascimentale quando a partire da Pio IV e soprattutto con Sisto V, attivo in tante altre zone della città, si svilupparono numerose opere di rinnovamento urbanistico che incisero notevolmente sul volto e sulle caratteristiche della zona in esame. A partire dal Rinascimento fino ad arrivare ai grandi scavi della fine del 1800 tutto il quartiere incominciò a “popolarsi” di numerosi edifici di grande mole che andarono ad intaccare completamente le vestigia del periodo antico: la costruzione del Palazzo del Quirinale e dei vari palazzi nobiliari ma soprattutto la costruzione dei numerosi ministeri e della prima stazione Termini alla fine dell’800 comportarono numerosi sventramenti senza la produzione di una adeguata documentazione delle indagini di scavo. Questa ricerca intende ricostruire, in un’ottica diacronica, la topografia di uno dei quartieri centrali della Roma antica attraverso l’analisi dei principali fenomeni che contraddistinguono l’evoluzione del tessuto urbano sia per quanto riguarda le strutture pubbliche che in particolar modo quelle private. Infatti, il dato principale che emerge da questa ricerca è che questa regio si configura, a partire già dal periodo tardo-repubblicano, come un quartiere a vocazione prevalentemente residenziale, abitato soprattutto dall’alta aristocrazia appartenente alle più alte cariche dello Stato romano; oltre a domus ed insulae, sul Quirinale, vennero costruiti lungo il corso di tutta l’età repubblicana alcuni tra i più antichi templi della città che con la loro mole occuparono parte dello spazio collinare fino all’età tardoantica, rappresentando così una macroscopica e costante presenza nell’ingombro dello spazio edificato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To assist rational compound design of organic semiconductors, two problems need to be addressed. First, the material morphology has to be known at an atomistic level. Second, with the morphology at hand, an appropriate charge transport model needs to be developed in order to link charge carrier mobility to structure.rnrnThe former can be addressed by generating atomistic morphologies using molecular dynamics simulations. However, the accessible range of time- and length-scales is limited. To overcome these limitations, systematic coarse-graining methods can be used. In the first part of the thesis, the Versatile Object-oriented Toolkit for Coarse-graining Applications is introduced, which provides a platform for the implementation of coarse-graining methods. Tools to perform Boltzmann inversion, iterative Boltzmann inversion, inverse Monte Carlo, and force-matching are available and have been tested on a set of model systems (water, methanol, propane and a single hexane chain). Advantages and problems of each specific method are discussed.rnrnIn partially disordered systems, the second issue is closely connected to constructing appropriate diabatic states between which charge transfer occurs. In the second part of the thesis, the description initially used for small conjugated molecules is extended to conjugated polymers. Here, charge transport is modeled by introducing conjugated segments on which charge carriers are localized. Inter-chain transport is then treated within a high temperature non-adiabatic Marcus theory while an adiabatic rate expression is used for intra-chain transport. The charge dynamics is simulated using the kinetic Monte Carlo method.rnrnThe entire framework is finally employed to establish a relation between the morphology and the charge mobility of the neutral and doped states of polypyrrole, a conjugated polymer. It is shown that for short oligomers, charge carrier mobility is insensitive to the orientational molecular ordering and is determined by the threshold transfer integral which connects percolating clusters of molecules that form interconnected networks. The value of this transfer integral can be related to the radial distribution function. Hence, charge mobility is mainly determined by the local molecular packing and is independent of the global morphology, at least in such a non-crystalline state of a polymer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Studie wurden verschiedene Techniken eingesetzt um drei Proben (4, 7, and 8) die aus denrnKorrosionsprodukten von aus dem Kosovo Krieg stammenden Munitionskugeln, bestehend aus abgereichertem Uranrn(Depleted Uranium - DU), zu untersuchen. Als erstes Verfahren wurde die Raman-Spektroskopie eingesetzt. Hierbeirnzeigte sichin den Proben, charakterisiert durch einen Doppelpeak, die Anwesenheit von Schoepitrn(UO2)8O2(OH)12(H2O)12. Der erste und zweite Peakzeigte sich im Spektralbereich von 840,3-842,5 cm-1rnbeziehungsweise 853,6-855,8 cm-1. Diese Werte stimmen mit den Literaturwerten für Raman-Peaks für Schoepitrnüberein. Des Weiteren wurde bei dieser Untersuchungsmethode Becquerelite Ca(UO2)6O4(OH)6(H2O)8 mit einemrnPeak im Bereich zwischen 829 to 836 cm-1 gefunden. Aufgrund des Fehlens des Becquerelitespektrums in derrnSpektralbibliothek wurde eine in der Natur vorkommende Variante analysiert und deren Peak bei 829 cm-1 bestimmt,rnwas mit den Ergebnissen in den Proben korrespondiert. Mittels Röntgenbeugung (X-Ray Diffraction, XRD) zeigtenrnsich in allen Proben ähnliche Spektren. Das lässt darauf schließen, dass das pulverisierte Material in allen Probenrndas gleiche ist. Hierbei zeigte sich eine sehr gute Übereinstimmung mit Schoepit und/oder meta-rnSchoepit(UO2)8O2(OH)12(H2O)10, sowie Becquerelite. Weiterhin war weder Autunit, Sabugalit noch Uranylphosphatrnanwesend, was die Ergebnisse einer anderen Studie, durchgeführt an denselben Proben, wiederlegt. DiernAnwesenheit von P, C oder Ca im Probenmaterial konnte ausgeschlossen werden. Im Falle von Calciumkann diesrnmit der Anwesenheit von Uran erklärt werden, welches aufgrund seines Atomradius bevorzugt in Becquerelite (1:6)rneingebaut wird. Die beiden Hauptpeaks für Uran lagen im Falle von U 4f 7/2 bei 382.0 eV und im Falle von U 4f 5/2rnbei 392 eV. Diese Werte mit den Literaturwerten für Schoepit und meta-Schoepitüberein. Die Ergebnissernelektronenmikroskopischen Untersuchung zeigen U, O, Ca, Ti als dominante Komponenten in allen Messungen.rnElemente wie Si, Al, Fe, S, Na, und C wurden ebenfalls detektiert; allerdings kann nicht ausgeschlossen werden,rndass diese Elemente aus dem Boden in der unmittelbaren Umgebung der Munitionsgeschosse stammen. Gold wurdernebenfalls gemessen, was aber auf die Goldarmierung in den Probenaufbereitungsbehältern zurückgeführt werdenrnkann. Die Elektronenmikroskopie zeigte außerdem einige Stellen in denen elementares Uran und Bodenmineralernsowie sekundäre Uranminerale auftraten. Die Elementübersicht zeigt einen direkten Zusammenhang zwischen U andrnCa und gleichzeitig keine Korrelation zwischen U und Si, oder Mg. Auf der anderen Seite zeigte sich aber einrnZusammenhang zwischen Si und Al da beide Konstituenten von Bodenmineralen darstellen. Eine mit Hilfe derrnElektronenstrahlmikroanalyse durchgeführte quantitative Analyse zeigte den Massenanteil von Uran bei ca. 78 - 80%,rnwas mit den 78,2% and 79,47% für Becquerelite beziehungsweise Schoepit aufgrund ihrer Summenformelrnkorrespondiert. Zusätzlich zeigt sich für Calcium ein Massenanteil von 2% was mit dem Wert in Becquerelite (2.19%)rnrecht gut übereinstimmt. Der Massenanteil von Ti lag in einigen Fällen bei 0,77%, was auf eine noch nicht korrodierternDU-Legierung zurückzuführen ist. Ein Lösungsexperiment wurde weiterhin durchgeführt, wobei eine 0,01 M NaClO4-rnLösung zum Einsatz kam in der die verbliebene Probensubstanz der Korrosionsprodukte gelöst wurde;rnNatriumperchlorate wurde hierbei genutzt um die Ionenstärke bei 0,01 zu halten. Um Verunreinigungen durchrnatmosphärisches CO2 zu vermeiden wurden die im Versuch für die drei Hauptproben genutzten 15 Probenbehälterrnmit Stickstoffgas gespült. Eine Modelkalkulation für den beschriebenen Versuchsaufbau wurde mit Visual MINTEQrnv.3.0 für die mittels vorgenannten Analysemethoden beschriebenen Mineralphasen im pH-Bereich von 6 – 10 imrnFalle von Becquerelite, und Schoepit berechnet. Die modellierten Lösungskurven wurden unter An- und Abwesenheitrnvon atmosphärischem CO2 kalkuliert. Nach dem Ende des Lösungsexperiments (Dauer ca. 6 Monate) zeigten diernKonzentrationen des gelösten Urans, gemessen mittels ICP-OES, gute Übereinstimmung mit den modelliertenrnSchoepit und Becquerelite Kurven. Auf Grund des ähnlichen Löslichkeitverhaltens war es nicht möglich zwichen denrnbeiden Mineralen zu unterscheiden. Schoepit kontrolliert im sauren Bereich die Löslichkeit des Urans, währendrnbecquerelit im basichen am wenigsten gelöst wird. Des Weiteren bleibt festzuhalten, dass ein Anteil an CO2 in diernverschlossenen Probenbehälter eingedrungen ist, was sich mit der Vorhersage der Modeldaten deckt. Die Löslichkeitrnvon Uran in der Lösung als Funktion des pH-Wertes zeigte die niedrigsten Konzentrationen im Falle einer Zunahmerndes pH-Wertes von 5 auf 7 (ungefähr 5,1 x 10-6 mol/l) und einer Zunahme des pH-Wertes auf 8 (ungefähr 1,5 x 10-6rnmol/l bei). Oberhalb dieses Bereichs resultiert jeder weitere Anstieg des pH-Wertes in einer Zunahme gelösten Uransrnin der Lösung. Der ph-Wert der Lösung wie auch deren pCO2-Wert kontrollieren hier die Menge des gelösten Urans.rnAuf der anderen Seite zeigten im Falle von Becquerelite die Ca-Konzentrationen höhere Werte als erwartet, wobeirnwahrscheinlich auf eine Vermischung der Proben mit Bodensubstanz zurückgeführt werden kann. Abschließendrnwurde, unter Berücksichtigung der oben genannten Ergebnisse, eine Fallstudie aus Basrah (Irak) diskutiert, wo inrnzwei militärischen Konflikten Uranmunition in zwei Regionen unter verschiedenen Umweltbedingungen eingesetztrnwurden.