1000 resultados para Programm


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study tried to know the social representation of dentists surgeons about the Family Health Program (FHP). Where used as methodological instruments a semi-structured interview and direct observation of work process in tive towns that are part of the metropolis region ofNatal city. During the interview some aspects where broached, such as the reasons of dentists surgeons join the FHP, what are the implications ofthe introduction of this program in the everyday practice, what kind of activities are they practicing and what are those professional missing the most in the FHP. In the direct observation where take in account some aspects related to the physic structure of health units, its service organization and demand, relationship amongst dentist and other member of the team, and about patient receptiveness, when they arrives at health unit. This study also identifY the researches subject showing their age, sex, for how they are graduates, what are them specialty and for how long they work for the FHP. The data had been analyzed through the analysis of content of Bardin5. The dentists depict the FHP for the change in assistance model through the preventive proposal of social work that makes possible to work with an ample concept of health. However what makes the FHP more attractive to dentists is the salary questiono The creation of bonds whit the community and the work whit groups and in team had been the main occurred changes in the daily one of the pratices ones of these professionals. The principal activities executed for these professionals inside of the new strategy of assistance in oral health are the carried trough preventive activities achieved in health units and social area. To them, the absence of institutional support and the employment of only one dentist for each team it is one the main point of strangling. There is no doubt that FHP is new strategy and that it is need a better integration amongst the professional, the institution

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Health Family Program (HFP) was founded in the 1990s with the objective of changing the health care model through a restructuring of primary care. Oral health was officially incorporated into HFP mainly through the efforts of dental professionals, and was seen as a way to break from oral health care models based on curative, technical biological and inequity methods. Despite the fast expansion of HFP oral health teams, it is essential to ask if changes are really occurring in the oral health model of municipalities. Therefore, the purpose of this study is to evaluate the incorporation of oral health teams into the Health Family Program by analyzing the factors that may interfere positively or negatively in the implementation of this strategy and consequently in the process of changing oral health care models in the National Health System in the state of Rio Grande do Norte, Brazil. This evaluation involves three dimensions: access, work organization and strategies of planning. For this purpose,19 municipalities, geographically distributed according to Regional Public Health Units (RPHU), were randomly selected. The data collection instruments used were: structured interview of supervisors and dentists, structured observation, documental research and data from national health data banks. It was possible to identify critical points that may be impeding the implementation of oral health into HFP, such as, low incomes, no legal employment contract, difficulty in referring patients for high-complexity procedures, in developing intersectoral actions and program strategies such as epidemiologic diagnosis and evaluation of the new actions. The majority of municipalities showed little or no improvement in oral health care after incorporating the new model into HFP. All of them had failures in most of the aspects mentioned above. Furthermore, these municipalities are similar in other areas, such as low educational levels in children from 7 to 14 years of age, high child mortality rates and wide social inequalities. On the other hand, the five municipalities that had improved oral health, according to the categories analyzed, offered better living conditions to the population, with higher life expectancy, low infant mortality rates, per capita income among the highest in the state as well as high Human Development Index (HDI) means. Therefore, it is possible to conclude that public policies that include aspects beyond the health sector are decisive for a real change in health care models

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Detektorsystem des Spektrometers Ader Drei-Spektrometer-Anlage am MainzerElektronenbeschleuniger MAMI wurde im Rahmen dieser Arbeitum ein Fokalebenen-Proton-Polarimeter (FPP) ergänzt.Dazu wurden zwei Horizontale Doppeldriftkammern entworfenund zusammen mit einem Kohlenstoffanalysator hinter derFokalebene des Spektrometers aufgebaut.Zur Berechnung der Spin-Präzession in den inhomogenenMagnetfeldern des Spektrometers wurde das Programm QSPINerstellt und damit eine Spin-Transfer-Matrix (STM) erzeugt,mit der über eine Fitprozedur die Polarisationskomponentender Protonen in der Streuebene an die im FPP gemessenenangepaßt werden können.Mit elastischen Elektron-Proton-Streuexperimenten wurdenfalsche Asymmetrien im FPP untersucht, die berechnete STMbestätigt, die inklusive Proton-Kohlenstoff-Analysierstärkeauf einen größeren Streuwinkelbereich erweitert und dasVerhältnis zwischen dem elektrischen und dem magnetischenSachs-Formfaktor des Protons gemessen.Zur Untersuchung der Coulomb-Quadrupol-Übergangsamplitudebei der Anregung des Nukleons zur Delta(1232)-Resonanzwurden in einem Pion-Elektroproduktions-Experiment am Protonmit dem FPP die Komponenten der Polarisation derRückstoßprotonen in paralleler Kinematik gemessen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der 'gestopfte Hochquarz' ß-Eukryptit (LiAlSiO4) ist bekannt für seine außergewöhnliche anisotrope Li-Ionenleitfähigkeit und die nahe Null liegende thermische Ausdehnung.Untersucht wurde die temperaturabhängige ß-Eukryptit-Phasenabfolge, insbesondere die modulierte Phase. Deren Satellitenreflexe sind gegenüber den normalen Reflexen erheblich verbreitert, überlappen miteinander sowie mit den dazwischen liegenden 'a-Reflexen' zu Tripletts. Für die Separation der Triplett-Intensitäten waren bisherige Standardverfahren zur Beugungsdatensammlung ungeeignet. Mit 'axialen q-Scans' wurde ein neuartiges Verfahren entwickelt. Intensitäten wurden mit dem neu-entwickelten least squares-Programm GKLS aus 2000 Profilen seriell und automatisch gewonnen und erfolgreich auf Standarddaten skaliert. Die Verwendung verbreiterter Reflexprofile erwies sich als zulässig.Die Verbreiterung wurde auf eine verminderte Fernordnung der Modulation von 11 bis 16 Perioden zurückgeführt (Analyse mit der Gitterfunktion), womit ein ungewöhnliches beugungswinkelabhängiges Verhalten der Reflexbreiten korrespondiert und mit typischen Antiphasendomänendurchmessern (andere Autoren) korreliert.Eine verminderte Si-/ Al-Ordnung wird als ursächlich für geringe Domänengrößen und Fernordnung angesehen, sowie für Eigenschaften wie z.B. a/c-Verhältnisse, Ausdehnungskoeffizienten, Ionenleitfähigkeit, Strukturtyp und Umwandlungstemperaturen. Änderungen des SiO2-Gehaltes, der Temperatur oder der Si- /Al-Ordnung zeitigen für einige Eigenschaften ähnliche Wirkungen.Die gemittelte Struktur der modulierten Phase wurde erstmals zuverlässig bestimmt, die Rolle des Li charakterisiert, Zweifel an der hexagonalen Symmetrie des ß-Eukryptits wurden ausgeräumt und die Bestimmung der modulierten Struktur wurde weitgehend vorbereitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung der Dissertation von Gerd Jochen ArnoldThema: Aufstieg und Fall eines Gebirges - Konvektionsmodelle zur variscischen Orogenese Diese Arbeit befaßt sich mit der Entwicklung der variscischen Gebirgswurzel. Numerische Modellierung wurden mit dem Finite-Differenzen-Programm FDCON durchgeführt. Dieses berechnet auf einem Gitter die Entwicklung von Konvektion unter Berücksichtigung von Massen-, Impuls- und Energieerhaltung. Der Modellansatz eignet sich für die Untersuchung der Orogenese unter Miteinbeziehung der thermo-mechanischen Wechselwirkung von Kruste und Mantel. Kapitel 1 beschreibt wesentliche Aspekte der variscischen Gebirgsbildung. Die tektonostratigraphische Gliederung erlaubt Rückschlüsse auf das plattentektonische Szenarium während der Gebirgsbildung. Die Kollision involvierte einige Terranes, die sukzessive an Laurasia angebaut wurden und die finale Konvergenz von Gondwana mit den konsolidierten Einheiten. Diese bewirkte den maximalen Aufbau der Varisciden, der durch Hochdruck-Gesteine dokumentiert ist. Diese wurden kurz nach maximaler Krustenverdickung innerhalb weniger Millionen Jahre in geringe Tiefen angehoben. Darauf folgte eine Aufheizung der Kruste, die durch Granite dokumentiert ist. Eine zentrale Frage der Variscidenforschung ist die Ursache für die erhöhten Temperaturen in der späten orogenen Phase. Geringe und gleichförmige Krustenmächtigkeiten unter den heutigen europäischen Varisciden legen die Vermutung nahe, daß sich Teile der Mantelwurzel des Gebirges abgelöst und abgesunken sind.Kapitel 2 beschreibt physikalische Aspekte von gebirgsbildenden Prozessen, insbesondere den thermischen Zustand kontinentaler Lithosphäre und die Folgen von Krustenkonvergenz. Der Einfluß von kompositioneller Schichtung und extrinsischen Parametern auf die Rheologie und das Wechselspiel zwischen auf- und abwärts gerichteten Kräften in verschiedenen orogenen Szenarien werden diskutiert.Kapitel 3 stellt die Modelle zur variscischen Gebirgsbildung vor. Ausgehend von Kontinent-Kontinent-Kollision werden Konsequenzen von rheologischer Schichtung und tiefreichenden Schwächezonen auf das Deformationsverhalten der Kruste untersucht. Außerdem wird ein Modell zum Abriß von Mantellithosphäre während Kollision vorgestellt. Abschließend werden die thermischen Konsequenzen von Subduktion junger ozeanischer Lithosphäre diskutiert.Kapitel 4 versucht eine Synthese der Kollisionsmodelle mit Modellen zur spätorogenen variscischen Entwicklung. Die mechanischen Eigenschaften der Delaminationsmodelle sollten während der Aufbauphase des Orogens angelegt worden sein. Außerdem wird eine Fallstudie vorgestellt, bei der die Modellparameter auf die Entwicklungsgeschichte erzgebirgischer Einheiten angepaßt worden sind. Schließlich werden Modelle zur thermischen Entwicklung nach Aufstieg von Asthenosphäre an die Krustenwurzel diskutiert. Die vulkanische Aktivität während der spätorogenen variscischen Phase kann plausibel erklärt werden.Kapitel 5 faßt die Ergebnisse zusammen und interpretiert diese bezüglich des plattentektonischen Szenariums der variscischen Orogenese. Durch die sukzessive Anlegung der Suturzonen während der Konsolidierung der Terranes sind die für Delamination nötigen Schwächezonen sukzessive ins variscische Orogen eingebaut worden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden geochronologische und isotopen-geochemische Daten zur Entwicklung der Zentralen Westlichen Karpathen präsentiert. Die Karpathen bilden die östliche Fortsetzung der Alpen und können in drei Alpine Grundgebirgsdecken unterteilt werden, von denen zwei, die Veporische und die Gemerische, bearbeitet wurden. In der Veporischen Einheit wurden polymetamorphe Grundgebirgseinheiten untersucht, um deren genaue Altersstellung zu definieren und sie isotopengeochemisch zu klassifizieren. Dagegen wurde in der der Gemerischen Einheit, welche die Veporische Einheit überlagert, ein spezialisierter S-Typ Granit im Detail untersucht, um die petrogenetischen Prozesse, die zur magmatischen Entwicklung dieses Granits geführt haben, zu identifizieren. U-Pb Datierungen an Zirkonen der Veporischen Grundgebirgseinheiten zeigen für die gesamte Veporische Einheit ordovizische Entsehungsalter an (440-470 Ma). Diese Datierungen revidieren publizierte kambrische Entstehungsalter dieses Grundgebirges. Die Isotopensignatur (epsilon Nd und 87Sr/86Sr) der ordovizischen Grundgebirgseinheiten, bestehend aus stark überprägten Amphiboliten und Gneissen, ist von der Signatur der sich im Norden anschliessenden Tatrischen Einheit gut unterscheidbar. Die Bleiisotopenzusammensetzung dieser Gesteine ist stark krustal geprägt und überschneidet sich mit der der Tatrischen Einheit. Zusammen mit den T-DM Altern sind diese Einheiten vergleichbar mit prävariskischen Einheiten der Alpen. Somit kann das ordovizische Grundgebirge zu den peri-Gondwana Terranen gezählt werden, die an einem aktiven Kontinentalrand im Norden von Gondwana gebildet wurden. In den Gesteinen der Veporischen Einheit wurde im Weiteren eine starke metamorphe überprägung und intensiver felsischer Magmatismus karbonischen Alters erkannt (320-350 Ma). Dieses Ereignis ist zeitgleich mit dem Magmatismus, welcher hauptsächlich in der sich im Norden anschliessenden Tatrischen Einheit beobachtet wird. Dieser gehört der variskischen Orogenese an. Intensive alpine Deformation und Metamorphose konnte in der südlichen Veporischen Einheit anhand der Einzelzirkondatierungen und der Isotopendaten der ordovizischen Einheiten nachgewiesen werden. Am Dlha Dolina Granit in der Gemerischen Einheit können starke Fraktionierungs- und Auto-Metasomatose-Effekte beobachtet werden. Durch die magmatische Fraktionierung wird eine Anreicherung der SEE erzeugt, wogegen die Metasomatose die SEE stark verarmt. Es kommt sogar zur Ausbildung eines Tetraden Effektes im SEE Muster, welche den starken Einfluss von Fluiden während der spät-magmatischen Phase belegt. Gesamtgesteins Pb-Pb Daten beschränken das minimale Intrusionsalter dieses Granites auf 240 Ma. Dieses Alter ist in guter übereinstimmung mit den Sr-Isotopendaten der magmatisch dominierten Gesteine, wohingegen die stark metasomatisch geprägten Gesteine ein zu radiogenes 87Sr/86Sri aufweisen. Während dieser Arbeit wurde intensiv mit der Blei-Isotopenzusammensetzung von Gesamtgesteinsproben gearbeitet. Um die Auswertung dieser Daten optimieren zu können wurde ein Computerscript für das GPL Programm Octave erstellt. Die Hauptaufgabe dieses Scripts besteht darin, Regressionen für geochronologische Anwendungen gemäss York (1969) zu berechnen. Ausserdem können mu und kappa-Werte für diese Regressionen berechnet und eine Hauptkomponentenanalyse, welche hilfreich für den Vergleich von zwei Datensätzen ist, durchgeführt werden. Am Ende der vorliegenden Arbeit wird die analytische Methode für einen Mikrowellen beschleunigten Säureaufschluss von granitoidem Material zur Bestimmung der Sr- und Nd-Isotopenzusammensetzung und der Elementkonzentrationen vorgestellt. Diese kombinierte Methode nutzt ein TIMS für die Sr und Nd Isotopenmessungen und eine Einzelkollektor-ICPMS zur Bestimmung der SEE, Rb und Sr Konzentrationen, welche mithilfe von relativen Sensitivitätsfaktoren gegenüber einem internen Standard quantifiziert werden. Diese Methode wird durch Messungen von internationalen Referenzmaterialien bewertet. Die Ergebnisse zeigen eine Reproduzierbarkeit von <10% für die Elementkonzentrationen und von <5% für Elementverhältnisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main part of this thesis describes a method of calculating the massless two-loop two-point function which allows expanding the integral up to an arbitrary order in the dimensional regularization parameter epsilon by rewriting it as a double Mellin-Barnes integral. Closing the contour and collecting the residues then transforms this integral into a form that enables us to utilize S. Weinzierl's computer library nestedsums. We could show that multiple zeta values and rational numbers are sufficient for expanding the massless two-loop two-point function to all orders in epsilon. We then use the Hopf algebra of Feynman diagrams and its antipode, to investigate the appearance of Riemann's zeta function in counterterms of Feynman diagrams in massless Yukawa theory and massless QED. The class of Feynman diagrams we consider consists of graphs built from primitive one-loop diagrams and the non-planar vertex correction, where the vertex corrections only depend on one external momentum. We showed the absence of powers of pi in the counterterms of the non-planar vertex correction and diagrams built by shuffling it with the one-loop vertex correction. We also found the invariance of some coefficients of zeta functions under a change of momentum flow through these vertex corrections.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Being basic ingredients of numerous daily-life products with significant industrial importance as well as basic building blocks for biomaterials, charged hydrogels continue to pose a series of unanswered challenges for scientists even after decades of practical applications and intensive research efforts. Despite a rather simple internal structure it is mainly the unique combination of short- and long-range forces which render scientific investigations of their characteristic properties to be quite difficult. Hence early on computer simulations were used to link analytical theory and empirical experiments, bridging the gap between the simplifying assumptions of the models and the complexity of real world measurements. Due to the immense numerical effort, even for high performance supercomputers, system sizes and time scales were rather restricted until recently, whereas it only now has become possible to also simulate a network of charged macromolecules. This is the topic of the presented thesis which investigates one of the fundamental and at the same time highly fascinating phenomenon of polymer research: The swelling behaviour of polyelectrolyte networks. For this an extensible simulation package for the research on soft matter systems, ESPResSo for short, was created which puts a particular emphasis on mesoscopic bead-spring-models of complex systems. Highly efficient algorithms and a consistent parallelization reduced the necessary computation time for solving equations of motion even in case of long-ranged electrostatics and large number of particles, allowing to tackle even expensive calculations and applications. Nevertheless, the program has a modular and simple structure, enabling a continuous process of adding new potentials, interactions, degrees of freedom, ensembles, and integrators, while staying easily accessible for newcomers due to a Tcl-script steering level controlling the C-implemented simulation core. Numerous analysis routines provide means to investigate system properties and observables on-the-fly. Even though analytical theories agreed on the modeling of networks in the past years, our numerical MD-simulations show that even in case of simple model systems fundamental theoretical assumptions no longer apply except for a small parameter regime, prohibiting correct predictions of observables. Applying a "microscopic" analysis of the isolated contributions of individual system components, one of the particular strengths of computer simulations, it was then possible to describe the behaviour of charged polymer networks at swelling equilibrium in good solvent and close to the Theta-point by introducing appropriate model modifications. This became possible by enhancing known simple scaling arguments with components deemed crucial in our detailed study, through which a generalized model could be constructed. Herewith an agreement of the final system volume of swollen polyelectrolyte gels with results of computer simulations could be shown successfully over the entire investigated range of parameters, for different network sizes, charge fractions, and interaction strengths. In addition, the "cell under tension" was presented as a self-regulating approach for predicting the amount of swelling based on the used system parameters only. Without the need for measured observables as input, minimizing the free energy alone already allows to determine the the equilibrium behaviour. In poor solvent the shape of the network chains changes considerably, as now their hydrophobicity counteracts the repulsion of like-wise charged monomers and pursues collapsing the polyelectrolytes. Depending on the chosen parameters a fragile balance emerges, giving rise to fascinating geometrical structures such as the so-called pear-necklaces. This behaviour, known from single chain polyelectrolytes under similar environmental conditions and also theoretically predicted, could be detected for the first time for networks as well. An analysis of the total structure factors confirmed first evidences for the existence of such structures found in experimental results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Time-of-Flight Aerosol Mass Spectrometer (ToF-AMS) der Firma Aerodyne ist eine Weiterentwicklung des Aerodyne Aerosolmassenspektrometers (Q-AMS). Dieses ist gut charakterisiert und kommt weltweit zum Einsatz. Beide Instrumente nutzen eine aerodynamische Linse, aerodynamische Partikelgrößenbestimmung, thermische Verdampfung und Elektronenstoß-Ionisation. Im Gegensatz zum Q-AMS, wo ein Quadrupolmassenspektrometer zur Analyse der Ionen verwendet wird, kommt beim ToF-AMS ein Flugzeit-Massenspektrometer zum Einsatz. In der vorliegenden Arbeit wird anhand von Laborexperimenten und Feldmesskampagnen gezeigt, dass das ToF-AMS zur quantitativen Messung der chemischen Zusammensetzung von Aerosolpartikeln mit hoher Zeit- und Größenauflösung geeignet ist. Zusätzlich wird ein vollständiges Schema zur ToF-AMS Datenanalyse vorgestellt, dass entwickelt wurde, um quantitative und sinnvolle Ergebnisse aus den aufgenommenen Rohdaten, sowohl von Messkampagnen als auch von Laborexperimenten, zu erhalten. Dieses Schema basiert auf den Charakterisierungsexperimenten, die im Rahmen dieser Arbeit durchgeführt wurden. Es beinhaltet Korrekturen, die angebracht werden müssen, und Kalibrationen, die durchgeführt werden müssen, um zuverlässige Ergebnisse aus den Rohdaten zu extrahieren. Beträchtliche Arbeit wurde außerdem in die Entwicklung eines zuverlässigen und benutzerfreundlichen Datenanalyseprogramms investiert. Dieses Programm kann zur automatischen und systematischen ToF-AMS Datenanalyse und –korrektur genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zentrale Untersuchungsfrage lautet: Welche Voraussetzungen müssen Kinder mitbringen, um Lernsoftware optimal nutzen zu können? Diese Frage wurde anhand der Voraussetzung „Leseverständnis“, als Basiskompetenz, sowie darüber hinausgehenden Voraussetzungen, „Interesse“ und „PC-Erfahrung“, untersucht. Die Studie „Lesen am Computer“ (LaC) betrachtete erstmals die effiziente Nutzung von Informationsquellen. Das Verhältnis von Print- und Hypertext-Lesekompetenz sowie Einflussfaktoren wurden hierbei erkundet. Es handelte sich um eine Zusatzstudie zur Internationalen Grundschul-Leseuntersuchung (IGLU) bzw. zur Erhebung „Kompetenzen und Einstellungen von Schülerinnen und Schülern (KESS). Die vorliegende Arbeit stellt eine quantitative Studie dar, wobei qualitative Methoden die Aussagen unterstützen. Es wurde das Leseverständnis von Mädchen und Jungen einer Hamburger Grundschule gemessen. Unter Berücksichtigung der Faktoren „Interesse am Thema und/oder Lernsoftware“ sowie „PC-Erfahrung“ wurde das Leseverständnis zum Multimediaverständnis in Beziehung gesetzt. Darüber hinaus wurden die Rezeptionsprozesse beobachtet und einzelne Fallbeispiele zur Interpretation herangezogen. Die Untersuchung hat gezeigt, dass die wichtigste Basisqualifikation beim Lernen mit neuen Medien ein gutes Leseverständnis ist und die Mädchen zum einen über ein besseres Leseverständnis und zum anderen über ein besseres Multimediaverständnis als die Jungen verfügen. Des Weiteren konnte dargelegt werden, dass sich die PC-Praxis eines Kindes nicht zwangsläufig mit seinen Fertigkeiten im Programm deckt und eine gute PC-Praxis hauptsächlich bei Kindern mit einem mäßigen Leseverständnis förderlich ist. Es lässt sich außerdem festhalten, dass die meisten Kinder Interesse am Thema aufweisen und dies überwiegend mit einem guten Leseverständnis und einem überdurchschnittlichen Multimediaverständnis gekoppelt ist. Die Hauptaufgaben des Unterrichts beziehen sich folglich auf das Arrangement von Lernprozessen. Die Einteilung in Rezeptionstypen ist eine wesentliche Aufgabe, um dementsprechend Teams zu bilden und Defizite auszugleichen. Ferner müssen Kinder mit einem guten bzw. mäßigen Leseverständnis unterschiedlich gefördert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computer simulations have become an important tool in physics. Especially systems in the solid state have been investigated extensively with the help of modern computational methods. This thesis focuses on the simulation of hydrogen-bonded systems, using quantum chemical methods combined with molecular dynamics (MD) simulations. MD simulations are carried out for investigating the energetics and structure of a system under conditions that include physical parameters such as temperature and pressure. Ab initio quantum chemical methods have proven to be capable of predicting spectroscopic quantities. The combination of these two features still represents a methodological challenge. Furthermore, conventional MD simulations consider the nuclei as classical particles. Not only motional effects, but also the quantum nature of the nuclei are expected to influence the properties of a molecular system. This work aims at a more realistic description of properties that are accessible via NMR experiments. With the help of the path integral formalism the quantum nature of the nuclei has been incorporated and its influence on the NMR parameters explored. The effect on both the NMR chemical shift and the Nuclear Quadrupole Coupling Constants (NQCC) is presented for intra- and intermolecular hydrogen bonds. The second part of this thesis presents the computation of electric field gradients within the Gaussian and Augmented Plane Waves (GAPW) framework, that allows for all-electron calculations in periodic systems. This recent development improves the accuracy of many calculations compared to the pseudopotential approximation, which treats the core electrons as part of an effective potential. In combination with MD simulations of water, the NMR longitudinal relaxation times for 17O and 2H have been obtained. The results show a considerable agreement with the experiment. Finally, an implementation of the calculation of the stress tensor into the quantum chemical program suite CP2K is presented. This enables MD simulations under constant pressure conditions, which is demonstrated with a series of liquid water simulations, that sheds light on the influence of the exchange-correlation functional used on the density of the simulated liquid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da maligne Neoplasien durch Mutationen in Proto-Onko- und/oder Tumorsuppressorgenen ausgelöst werden, stellt die DNA eines der wichtigsten Targets für die Entwicklung neuer Zytostatika dar. Auch bei den im Arbeitskreis Pindur designten und synthetisier-ten Verbindungen der Nukleobasen-gekoppelten Pyrrolcarboxamid-, der Hetaren[a]carbazol- und der Combilexin-Reihe handelt es sich um DNA-Liganden mit potentiell antitumoraktiven Eigenschaf-ten. Die einen dualen Bindemodus aufweisenden Combilexine bestehen aus einem Interkalator (u. a. Naphthalimid, Acridon), der über einen Linker variabler Kettenlänge mit einer rinnenbin-denden, von Netropsin abgeleiteten Bispyrrol-, oder einer bioisosteren Imidazol-, Thiazol- oder Thiophen-pyrrolcarboxamid-struktur verknüpft ist. Das N-terminale Ende der Combilexine wird von einer N,N-Dimethylaminopropyl- oder -ethyl-Seitenkette gebildet. Die DNA-Affinitäten der Liganden wurden mittels Tm-Wert-Messung-en bestimmt. Diese Denaturierungsexperimente wurden sowohl mit poly(dAdT)2- als auch mit Thymus-DNA (~42% GC-Anteil) durchge-führt, um Aussagen zur Stärke und zur Sequenzselektivität der DNA-Bindung machen zu können. Des Weiteren wurden die Bindekon-stanten einiger ausgewählter Vertreter mit Hilfe des Ethidium-bromid-Verdrängungsassays ermittelt; einige Testverbindungen wurden zudem auf potentiell vorhandene, TOPO I-inhibierende Eigenschaften untersucht. Diese biochemischen und biophysika-lischen Tests wurden durch Molecular Modelling-Studien ergänzt, die die Berechnung von molekularen Eigenschaften, die Durch-führung von Konformerenanalysen und die Simulation von DNA-Ligand-Komplexen (Docking) umfassten. Durch Korrelation der in vitro-Befunde mit den in silico-Daten gelang es, vor allem für die Substanzklasse der Combilexine einige richtungweisende Struktur-Wirkungsbeziehungen aufzustellen. So konnte gezeigt werden, dass die Einführung eines Imidazol-Rings in die rinnen-bindende Hetaren-pyrrolcarboxamid-Struktur der Combilexine aufgrund der H-Brücken-Akzeptor-Funktion des sp2-hybridisierten N-Atoms eine Verschiebung der Sequenzselektivität der DNA-Bindung von AT- zu GC-reichen Arealen der DNA bedingt. Zudem erwies sich ein C3-Linker für die Verknüpfung des Naphthalimids mit dem rinnenbindenden Strukturelement als am besten geeignet, während bei den Acridon-Derivaten die Verbindungen mit einem N-terminalen Buttersäure-Linker die höchste DNA-Affinität aufwiesen. Dies ist sehr wahrscheinlich auf die im Vergleich zum Naphthalimid-Molekül geringere y-Achsen-Ausdehnung (bzgl. eines x/y-Koordinatensystems) des Acridons zurückzuführen. Die ermittelten Struktur-Wirkungsbeziehungen können dazu herangezogen werden, das rationale Design neuer DNA-Liganden mit potentiell stärkerer DNA-Bindung zu optimieren.