908 resultados para Calonius, Matthias


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, nous étendons le nombre de conditions physiques actuellement con- nues du trou d’échange exact avec la dérivation de l’expansion de quatrième ordre du trou d’échange sphérique moyenne exacte. Nous comparons les expansions de deux- ième et de quatrième ordre avec le trou d’échange exact pour des systèmes atomiques et moléculaires. Nous avons constaté que, en général, l’expansion du quatrième ordre reproduit plus fidèlement le trou d’échange exact pour les petites valeurs de la distance interélectronique. Nous démontrons que les ensembles de base de type gaussiennes ont une influence significative sur les termes de cette nouvelle condition, en étudiant com- ment les oscillations causées par ces ensembles de bases affectent son premier terme. Aussi, nous proposons quatre modèles de trous d’échange analytiques auxquels nous imposons toutes les conditions actuellement connues du trou d’échange exact et la nou- velle présentée dans ce travail. Nous évaluons la performance des modèles en calculant des énergies d’échange et ses contributions à des énergies d’atomisation. On constate que les oscillations causeés par les bases de type gaussiennes peuvent compromettre la précision et la solution des modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kernthese dieser Arbeit ist eine Leerstelle. Ihre Formulierung beruht auf einer Beobachtung, wie sie von William Gibson stammen könnte: kulturell avantgardistische Gruppen der Gesellschaft internalisieren für ihre technologisch gestützten Praktiken futuristische Phantasmen geschichtlicher Vorläufer, die in Literatur und Mediengeschichte detektivisch aufspürbar sind. Werden diese Verinnerlichungen in aktuelle Fantasien umgewandelt, entsteht eine hybride Mischung vielfältigster Beschäftigungen, Reflexionen und Entwürfe von Technokultur. Bringt man diese Kopplungen auf das Jahr 3000, die nächste epochale zukünftige Zäsur, wird die Absurdität des Projekts, Technokultur überhaupt zu thematisieren deutlich. Technokultur ist im dynamischen Wandel sozio-ikonografisch untersuchbar, wird aber durch Unschärferelation zum object trouvé und Triebmoment für eine in es selbst hinein assimilierbare Analyse. Der daraus folgenden Vermessenheit kann durch instrumentelle Serendipity begegnet werden, die hier nicht Effekt wäre, stattdessen als Methode Verwendung findet: Finden statt Suchen. Das verhältnismäßig neue Schreib/Lese-Medium Hypertext bietet sich dafür als geradezu prädestiniert an. Hypertext ist prinzipiell unabgeschlossen, er folgt hier Arbeitsprinzipien wie sie seit den frühen 1990ern in Online-Tagebüchern und seit den frühen 2000er Jahren in Weblogs (World Wide Web Logbooks) auszumachen sind: Notizen, Found Text (analog zu Found Footage), Zitate, Fragmente, die kurze Form, kurz: wissenschaftliche Alltagstextproduktion wird nach Ordnungskriterien a-systematisiert und verwoben - weniger archiviert denn gesammelt. Eine Art Second Hand Theorie entsteht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tagungsband - Vorträge vom Automation Symposium 2006

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wirkungsmechanismen institutioneller Rahmenbedingungen auf Ausmaß, Richtung, Reichweite und Geschwindigkeit von Innovationsprozessen werden aktuell kontrovers diskutiert. Als prominentes Beispiel dienen die politischen Umsetzungsbemühungen eines Leitbildes der Nachhaltigkeit, insbesondere die erforderliche Integration ökonomischer, sozialer und ökologischer Aspekte in individuelle Innovationsaktivitäten. Fragen der wirtschaftspolitischen Steuerungsmöglichkeiten und -grenzen und damit der hoheitlichen Lenkungspotenziale der Innovationsprozesse in Richtung Nachhaltigkeit gewinnen in diesem Zusammenhang erheblich an Relevanz. Vor dem Hintergrund einer Vielzahl staatlicher Eingriffe in die innovationsrelevanten Rahmenbedingungen analysiert die Arbeit vor allem die Funktionsprinzipien und institutionellen Vorbedingungen entwicklungsoffener dynamischer Marktprozesse. Auf dieser Basis werden die steuerungstheoretischen Implikationen einer sowohl nachhaltigkeitsorientierten als auch ordnungsökonomisch einwandfreien Wirtschaftspolitik fokussiert. Aus ordnungsökonomischer Perspektive wird die Anpassungsfähigkeit der Wettbewerbsordnung an systemendogenen und -exogenen Aktualisierungsbedarf und damit die institutionelle Absicherung ihrer Evolutionsfähigkeit zum Gütekriterium eines evolutorisch reinterpretierten Ordnungskonformitätskriteriums. Damit lassen sich auch die Risiken und Nebenwirkungen forschungs- und entwicklungspolitischer Interventionen in dynamische Marktsysteme analysieren und einer Bewertung unterziehen. Die Überprüfung der evolutorischen Ordnungskonformität (Zulässigkeit) europäischer Forschungs- und Entwicklungspolitik wird schließlich als Anwendungsbeispiel herangezogen. Als Arbeitshypothese dient die Vermutung, dass die derzeitigen forschungs- und entwicklungspolitischen Aktivitäten der Europäischen Union einer Überprüfung anhand des ordnungsökonomischen Referenzkriteriums der evolutorischen Ordnungskonformität nicht standhalten, da sie das (zweifellos vorhandene) hoheitliche Steuerungspotenzial überschätzen und in der Folge entwicklungslimitierende Effekte ausstrahlen. Gleichwohl werden – insbesondere unter Nachhaltigkeitsgesichtspunkten – innovationspolitische Steuerungsnotwendigkeiten in freiheitlich-wettbewerblich organisierte Ordnungen anerkannt. Mit dem Konzept variabler forschungs- und entwicklungspolitischer Leitplanken wird ein Vorschlag entwickelt, der den ordnungsökonomischen Anforderungen weitgehend Rechnung trägt und im Ergebnis nachhaltigkeitsmotivierte Steuerungsimpulse mit der Aufrechterhaltung eines weitgehend offenen Innovationswettbewerbs verbinden kann. Durch den Ausschluss der Förderung nicht-nachhaltiger Technologien und die damit prinzipiell erhaltene Handlungsfreiheit – bei gleichzeitiger Variabilität der Leitplanken angesichts wachsender ökologischer und technologischer Wissensbestände – kann dieses Konzept als potenziell ordnungskonformes Leitbild zukünftige FuE-Politik orientieren. Dessen Umsetzung führt über ein Konzept variabler forschungs- und entwicklungspolitischer Leitplanken, welche der wirtschaftlichen Ordnung Entwicklungsbeschränkungen der „Nicht-Nachhaltigkeit“ auferlegen, aber nicht nachhaltigkeitspolitisch vorbestimmte Allokationszustände zu realisieren versucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Standard redox potentials E^0(M^z+x/M^z+) in acidic solutions for group 5 elements including element 105 (Ha) and the actinide, Pa, have been estimated on the basis of the ionization potentials calculated via the multiconfiguration Dirac-Fock method. Stability of the pentavalent state was shown to increase along the group from V to Ha, while that of the tetra- and trivalent states decreases in this direction. Our estimates have shown no extra stability of the trivalent state of hahnium. Element 105 should form mixed-valence complexes by analogy with Nb due to the similar values of their potentials E^0(M^3+/M^2+). The stability of the maximumoxidation state of the elements decreases in the direction 103 > 104 > 105.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We calculate the energy and lifetime of the ground state hyperfine structure transition in one-electron Bi^82+ . The influence of various distributions of the magnetic moment and the electric charge in the nucleus ^209_83 Bi on energy and lifetime is studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit Januar 2007 und sind in Nicaragua wieder die Sandinisten unter dem ehemaligen Revolutionsführer Daniel Ortega in der Regierungsverantwortung. Am 12. und 13. Juni 2009 veranstalteten das NicaNetz - Freiwilligen-Netzwerk Nicaragua e.V. und das Entwicklungspolitische Netzwerk Hessen in Kooperation mit dem Fachgebiet für Internationale und intergesellschaftliche eine Fachtagung, um gemeinsam mit ExpertInnen aus Wissenschaft, Solidaritätsbewegung und Entwicklungszusammenarbeit einen differenzierten Blick auf die politische, soziale und wirtschaftliche Entwicklung Nicaraguas zu werfen. Das vorliegende OneWorld Perspective Working Paper vertieft die auf der Tagung begonnene Diskussion. Anschließend an einleitende Beiträge zur Geschichte des Sandinismus und konkreten Projekterfahrungen aus der Solidaritäs- und Entwicklungszusammenarbeit, befassen sich die AutorInnen mit den Themenfeldern Entwicklungspolitische Praxis, Zentrale Konfliktfelder sowie Wirtschafts- und Sozialpolitik.