962 resultados para Negative contrast
Resumo:
The aim of this work was to produce a variety of fluorescent diatom cell wall material as a basis for spectroscopic investigations of the influence of the photonic structure on the emission of an incorporated laser dye. This goal was achieved by the method of in vivo-fluorochromation, in which the fluorescence dyes are incorporated by the diatom cells during cell wall formation. Several fluorescent dyes (mostly rhodamines) known as strong laser dyes, were tested for a possible application within this method. The results of this work show that half of the tested rhodamines can be applied for an in vivo-fluorochromation of diatom cells. For a successful incorporation into the diatom cell wall, a relatively low toxicity to diatom cells is necessary. Replacement of the carbon acid function at the carboxyphenyl ring of the rhodamine by a methyl or ethylester function showed to convert a rhodamine of relatively low toxicity to a rhodamine leading to severe lethal effects within the cells. In contrast to their carbon acid forms, which posses a net neutral charge of the molecule, rhodamine esters exhibit a net positive charge. The enhanced toxicological effects seem to be due to an increased accumulation of positive charged rhodamines within the mitochondria, an increased hydrophobicity due to the attachment of an alkyl substituent, an increased retention time of the dyes within the mitochondria and a therefore stronger negative effect on the mitochondrial membrane bound energy processes of the diatom cell. Therefore rhodamines with a positive net charge deriving from a methyl or ethylester function at the carboxy phenyl ring instead of a carbon acid substituent showed not to be suitable for long-term investigations/ biomineralization studies of diatoms. Investigations performed on diatom species of different orders showed that rhodamine 19, rhodamine B, and rhodamine 101 can presumably be successfully applied for in vivo-fluorochromation to all diatom species. The results obtained here can help to find further laser dyes for an in vivo-fluorochromation of diatom cells and therefore for the production of fluorescent nanostructural elements for a detailed optical investigation of the diatom cell wall. First optical measurements performed on in vivo-fluorochromated cell walls did not give any hints concerning the photonic structure of the diatom cell. Cell wall parts with different nanostructural elements were investigated and by comparison of the obtained fluorescence emission spectra, no special features that might derive from photonic structural effects could be observed. Results concerning the concentration dependent shifts within the emission spectra, as well as the decrease of fluorescence intensity of the stained cell wall structures with increasing dye concentration, depict that several effects occurring by interaction of the molecules within the cell wall can have an impact on the technical application of fluorescent cell walls. It can be assumed that the investigation of the photonic crystal behaviour and the possibility to achieve laser action within the diatom cell wall can be hampered by molecular interactions. The results give hints to prevent such obstacles. Comparison of the recent findings and state of the art of in vivo-fluorochromation of diatom cell wall material, make clear that the here presented results are of importance and can offer a considerable contribution to the development and establishment of new biosilification markers, for diatoms as well as for other biosilifying organisms.
Resumo:
Relativistic density functional theory is widely applied in molecular calculations with heavy atoms, where relativistic and correlation effects are on the same footing. Variational stability of the Dirac Hamiltonian is a very important field of research from the beginning of relativistic molecular calculations on, among efforts for accuracy, efficiency, and density functional formulation, etc. Approximations of one- or two-component methods and searching for suitable basis sets are two major means for good projection power against the negative continuum. The minimax two-component spinor linear combination of atomic orbitals (LCAO) is applied in the present work for both light and super-heavy one-electron systems, providing good approximations in the whole energy spectrum, being close to the benchmark minimax finite element method (FEM) values and without spurious and contaminated states, in contrast to the presence of these artifacts in the traditional four-component spinor LCAO. The variational stability assures that minimax LCAO is bounded from below. New balanced basis sets, kinetic and potential defect balanced (TVDB), following the minimax idea, are applied with the Dirac Hamiltonian. Its performance in the same super-heavy one-electron quasi-molecules shows also very good projection capability against variational collapse, as the minimax LCAO is taken as the best projection to compare with. The TVDB method has twice as many basis coefficients as four-component spinor LCAO, which becomes now linear and overcomes the disadvantage of great time-consumption in the minimax method. The calculation with both the TVDB method and the traditional LCAO method for the dimers with elements in group 11 of the periodic table investigates their difference. New bigger basis sets are constructed than in previous research, achieving high accuracy within the functionals involved. Their difference in total energy is much smaller than the basis incompleteness error, showing that the traditional four-spinor LCAO keeps enough projection power from the numerical atomic orbitals and is suitable in research on relativistic quantum chemistry. In scattering investigations for the same comparison purpose, the failure of the traditional LCAO method of providing a stable spectrum with increasing size of basis sets is contrasted to the TVDB method, which contains no spurious states already without pre-orthogonalization of basis sets. Keeping the same conditions including the accuracy of matrix elements shows that the variational instability prevails over the linear dependence of the basis sets. The success of the TVDB method manifests its capability not only in relativistic quantum chemistry but also for scattering and under the influence of strong external electronic and magnetic fields. The good accuracy in total energy with large basis sets and the good projection property encourage wider research on different molecules, with better functionals, and on small effects.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
Agricultural intensification has a strong impact on level of soil organic matter (SOM), microbial biomass stocks and microbial community structure in agro-ecosystems. The size of the microbial necromass C pool could be about 40 times that of the living microbial biomass C pool in soils. Due to the specificity, amino sugar analysis gives more important information on the relative contribution of fungal and bacterial residues to C sequestration potential of soils. Meanwhile, the relationship between microbial biomass and microbial necromass in soil and its ecological significance on SOM are not fully understood and likely to be very complex in grassland soils. This thesis focuses on the effects of tillage, grassland conversion intensities and fertilisation on microbial biomass, residues and community structure. The combined analyses of microbial biomass and residue formation of both fungi and bacteria provided a unique opportunity to study the effect of tillage, grassland conversion and fertilisation on soil microbial dynamics. In top soil at 0-30 cm layer, a reduction in tillage intensity by the GRT and NT treatments increased the accumulation of saprotrophic fungi in comparison with the MBT treatment. In contrast, the GRT and NT treatments promoted AMF at the expense of saprotrophic fungi in the bottom soil layer at 30-40 cm depth. The negative relationship between the ergosterol to microbial biomass C ratio and the fungal C to bacterial C ratio points to the importance of the relationship between saprotrophic fungi and biotrophic AMF for tillage-induced changes in microbial turnover of SOC. One-season cultivation of winter wheat with two tillage events led to a significant loss in SOC and microbial biomass C stocks at 0-40 cm depth in comparison with the permanent grassland, even 5 years after the tillage event. However, the tillage induced loss in microbial biomass C was roughly 40% less in the long-term than in the short-term of the current experiment, indicating a recovery process during grassland restoration. In general, mould board tillage and grassland conversion to maize monoculture promoted saprotrophic fungi at the expense of biotrophic AMF and bacteria compared to undisturbed grassland soils. Slurry application promoted bacterial residues as indicated by the decreases in both, the ergosterol to microbial biomass C ratio and the fungal C to bacterial C ratio. In addition, the lost microbial functional diversity due to tillage and maize monoculture was restored by slurry application both in arable and grassland soils. I conclude that the microbial biomass C/S ratio can be used as an additional indicator for a shift in microbial community. The strong relationships between microbial biomass and necromass indices points to the importance of saprotrophic fungi and biotrophic AMF for agricultural management induced effects on microbial turnover and ecosystem C storage. Quantitative information on exact biomass estimates of these two important fungal groups in soil is inevitably necessary to understand their different roles in SOM dynamics.
Resumo:
The ongoing depletion of the coastal aquifer in the Gaza strip due to groundwater overexploitation has led to the process of seawater intrusion, which is continually becoming a serious problem in Gaza, as the seawater has further invaded into many sections along the coastal shoreline. As a first step to get a hold on the problem, the artificial neural network (ANN)-model has been applied as a new approach and an attractive tool to study and predict groundwater levels without applying physically based hydrologic parameters, and also for the purpose to improve the understanding of complex groundwater systems and which is able to show the effects of hydrologic, meteorological and anthropogenic impacts on the groundwater conditions. Prediction of the future behaviour of the seawater intrusion process in the Gaza aquifer is thus of crucial importance to safeguard the already scarce groundwater resources in the region. In this study the coupled three-dimensional groundwater flow and density-dependent solute transport model SEAWAT, as implemented in Visual MODFLOW, is applied to the Gaza coastal aquifer system to simulate the location and the dynamics of the saltwater–freshwater interface in the aquifer in the time period 2000-2010. A very good agreement between simulated and observed TDS salinities with a correlation coefficient of 0.902 and 0.883 for both steady-state and transient calibration is obtained. After successful calibration of the solute transport model, simulation of future management scenarios for the Gaza aquifer have been carried out, in order to get a more comprehensive view of the effects of the artificial recharge planned in the Gaza strip for some time on forestall, or even to remedy, the presently existing adverse aquifer conditions, namely, low groundwater heads and high salinity by the end of the target simulation period, year 2040. To that avail, numerous management scenarios schemes are examined to maintain the ground water system and to control the salinity distributions within the target period 2011-2040. In the first, pessimistic scenario, it is assumed that pumping from the aquifer continues to increase in the near future to meet the rising water demand, and that there is not further recharge to the aquifer than what is provided by natural precipitation. The second, optimistic scenario assumes that treated surficial wastewater can be used as a source of additional artificial recharge to the aquifer which, in principle, should not only lead to an increased sustainable yield of the latter, but could, in the best of all cases, revert even some of the adverse present-day conditions in the aquifer, i.e., seawater intrusion. This scenario has been done with three different cases which differ by the locations and the extensions of the injection-fields for the treated wastewater. The results obtained with the first (do-nothing) scenario indicate that there will be ongoing negative impacts on the aquifer, such as a higher propensity for strong seawater intrusion into the Gaza aquifer. This scenario illustrates that, compared with 2010 situation of the baseline model, at the end of simulation period, year 2040, the amount of saltwater intrusion into the coastal aquifer will be increased by about 35 %, whereas the salinity will be increased by 34 %. In contrast, all three cases of the second (artificial recharge) scenario group can partly revert the present seawater intrusion. From the water budget point of view, compared with the first (do nothing) scenario, for year 2040, the water added to the aquifer by artificial recharge will reduces the amount of water entering the aquifer by seawater intrusion by 81, 77and 72 %, for the three recharge cases, respectively. Meanwhile, the salinity in the Gaza aquifer will be decreased by 15, 32 and 26% for the three cases, respectively.
Resumo:
In the theory of the Navier-Stokes equations, the proofs of some basic known results, like for example the uniqueness of solutions to the stationary Navier-Stokes equations under smallness assumptions on the data or the stability of certain time discretization schemes, actually only use a small range of properties and are therefore valid in a more general context. This observation leads us to introduce the concept of SST spaces, a generalization of the functional setting for the Navier-Stokes equations. It allows us to prove (by means of counterexamples) that several uniqueness and stability conjectures that are still open in the case of the Navier-Stokes equations have a negative answer in the larger class of SST spaces, thereby showing that proof strategies used for a number of classical results are not sufficient to affirmatively answer these open questions. More precisely, in the larger class of SST spaces, non-uniqueness phenomena can be observed for the implicit Euler scheme, for two nonlinear versions of the Crank-Nicolson scheme, for the fractional step theta scheme, and for the SST-generalized stationary Navier-Stokes equations. As far as stability is concerned, a linear version of the Euler scheme, a nonlinear version of the Crank-Nicolson scheme, and the fractional step theta scheme turn out to be non-stable in the class of SST spaces. The positive results established in this thesis include the generalization of classical uniqueness and stability results to SST spaces, the uniqueness of solutions (under smallness assumptions) to two nonlinear versions of the Euler scheme, two nonlinear versions of the Crank-Nicolson scheme, and the fractional step theta scheme for general SST spaces, the second order convergence of a version of the Crank-Nicolson scheme, and a new proof of the first order convergence of the implicit Euler scheme for the Navier-Stokes equations. For each convergence result, we provide conditions on the data that guarantee the existence of nonstationary solutions satisfying the regularity assumptions needed for the corresponding convergence theorem. In the case of the Crank-Nicolson scheme, this involves a compatibility condition at the corner of the space-time cylinder, which can be satisfied via a suitable prescription of the initial acceleration.
Resumo:
Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
Resumo:
Baylis & Driver (Nature Neuroscience, 2001) have recently presented data on the response of neurons in macaque inferotemporal cortex (IT) to various stimulus transformations. They report that neurons can generalize over contrast and mirror reversal, but not over figure-ground reversal. This finding is taken to demonstrate that ``the selectivity of IT neurons is not determined simply by the distinctive contours in a display, contrary to simple edge-based models of shape recognition'', citing our recently presented model of object recognition in cortex (Riesenhuber & Poggio, Nature Neuroscience, 1999). In this memo, I show that the main effects of the experiment can be obtained by performing the appropriate simulations in our simple feedforward model. This suggests for IT cell tuning that the possible contributions of explicit edge assignment processes postulated in (Baylis & Driver, 2001) might be smaller than expected.
Resumo:
INTRODUCCION: El dolor torácico es una de las principales causas de consulta en los servicios de urgencias y cardiología, se convierte en un reto clasificar a los pacientes empleando una herramienta diagnóstica lo suficientemente sensible y especifica para establecer riesgo y pronóstico, la estrecha relación existente entre enfermedad aterosclerótica e inflamación ha dirigido su atención al papel de marcadores plasmáticos de inflamación como predictores de riesgo de eventos cardiovasculares. La Proteína C reactiva (PCR) ha sido ampliamente estudiada en pacientes con factores de riesgo cardiovascular y Eventos coronarios Agudos, pero se desconoce el comportamiento en pacientes con dolor torácico de probabilidad intermedia. OBJETIVOS: Determinar la utilidad y comportamiento de la Proteína C reactiva en pacientes con dolor torácico de probabilidad Intermedia para síndrome coronario. MATERIALES Y METODOS: Este estudio fue realizado entre junio 2008 y febrero de 2009 en una institución de referencia en cardiológica ( Fundación Cardio Infantil, Bogotá-Colombia), Se Estudiaron pacientes con EKG normal o no diagnostico y marcadores de injuria miocardica negativos. Los pacientes continuaron su estudio según las recomendaciones y guías internacionales para dolor torácico. Nosotros realizamos dos tomas de PCR, Una PCR antes de 12 horas de iniciado el dolor torácico y otra PCR después de las 18 Hrs de iniciado el dolor torácico, se realizo la deferencia entre estas dos PCR (PCR 18 hrs vs PCR basal) Con estos 3 resultados se hizo el análisis estadístico para hallar sensibilidad, especificidad, valor predictivo positivo, valor predictivo negativo, comparándolo contra las pruebas de provocación de isquemia y cateterismo. RESULTADOS: Un total de 203 pacientes fueron analizaron. Con un promedio de edad fue de 60.8 ± 11 años, Los dos géneros tuvieron una distribución sin diferencia significativas. Los factores de riesgo asociados fueron: Hipertensión arterial 76%(n=155), Dislipidemia 68.1%(n=139), Diabetes Mellitus 20.6%(n=42), Obesidad 7.4%(n=15) y tabaquismo 9.3%(n=19). El total de cateterismos realizados fueron 66 pruebas: Normal el 27%(n=18), lesiones no significativas el 25.8%(n=17) y lesiones Obstructivas 47%(n=31). La PCR tuvo una utilidad diagnostica baja, la PCR a las 18 horas es la mejor prueba diagnóstica , con un mejor comportamiento del área de la curva ROC 0.74 (IC , 0.64-0.83), con sensibilidad del 16.13% (IC 95%, 1.57-30.69), especificidad del 98.26%( IC 955, 96.01-100), un valor predictivo negativo de 86.67%(IC 95%, 81.64-91.69). En el seguimiento a los 30 días no encontró nuevas hospitalizaciones de causa cardiovascular. CONCLUSIONES: Nuestro estudio muestra una utilidad diagnostico baja de la PCR en el dolor torácico de probabilidad intermedia para enfermedad coronaria, el mejor comportamiento diagnostico se encontró en la PCR a las 18 hrs con una alta especificidad y un alto Valor predictivo negativo para un valor de PCR > de 3mg/dl, siendo menor la utilidad de la PCR basal y diferencia de la PCR. diferencia de la PCR. Estos hallazgos no se correlacionaron con estudios previos. No se pudo establecer un punto de Corte de la PCR diferente a los ya existentes debido a la variabilidad de la PCR entre la población de estudio. Las limitaciones encontradas en nuestro estudio hacen necesaria la realización de un estudio multicéntrico.
Resumo:
Llapis i retoladors sobre paper 12 x 12 cm. Treball realitzat en els tallers de l'assignatura troncal d'educació artística de 2n de Mestres d'Educació Infantil durant el curs 2007-08. Ha estat proposat, dirigit i fotografiat o escanejat per la professora Muntsa Calbó, amb l'ajut de Dayan Castañeda
Resumo:
Introducción. En el presente trabajo se pretende identificar los factores psicosociales laborales asociados con el bienestar del trabajador en investigaciones realizadas en Colombia y España, durante el periodo 2002 – 2012. Objetivo. Este trabajo tiene como fin, precisar sobre el desarrollo investigativo en lo referente a los factores psicosociales y su relación con el bienestar, de los trabajadores en Colombia y España durante el período 2002-2012, por medio de los estudios encontrados sobre factores psicosociales y su impacto benéfico en el bienestar del trabajador, marco legal de ambos países, así como también, la revisión documental, consolidación y posterior análisis de la literatura, en torno al estado del arte del presente estudio en relación a los factores psicosociales laborales. Método. Se trata de un estudio documental, realizado por medio, de una revisión de literatura en las bases de datos y posterior selección, clasificación, consolidación, sistematización y análisis de los estudios de investigación encontrados, los cuales, analizaban aspectos relacionados con los factores psicosociales y su relación con el bienestar del trabajador en Colombia y España, durante el período 2002-2012. Resultados. En la revisión documental se evidenció que los estudios referentes a los factores psicosociales y su relación con el bienestar del trabajador, representa un importante y permanente reto para las organizaciones. De la misma manera, se destacan los avances que sobre dicha relación presenta España, pues, en Colombia, aun los estudios siguen direccionados hacia los factores de riesgo o perjudiciales, más que hacia factores protectores o de bienestar, generadores de un efecto benéfico en los trabajadores y por ende en la organización.
Resumo:
Comparar el resultado de la resonancia magnética en el diagnóstico de apendicitis aguda con el patrón de oro (estudio histopatológico o seguimiento clínico del paciente) con el fin de establecer la utilidad de ésta como prueba diagnóstica y poder incluirla dentro del algoritmo de estudio de esta patología cuando hay sospecha clínica y un resultado negativo o dudoso de la ecografía abdominal
Resumo:
INTRODUCCIÓN: El trasplante hepático ha permitido mejorar la calidad de vida y la supervivencia de los pacientes con cirrosis, se ha identificado un gran espectro de complicaciones crónicas, dentro de las cuales la Diabetes Mellitus de nuevo inicio posterior al trasplante (DMNPT) hace parte y genera un impacto significativo con relación a morbimortalidad. Nuestro objetivo fue determinar los factores asociados para el desarrollo de DMNPT. METODOLOGÍA: Se llevó a cabo un estudio de casos y controles sobre una cohorte histórica donde se revisaron pacientes colombianos postrasplante hepático y se evaluaron factores clínicos asociados con el inicio de DMNPT. RESULTADOS: Se encontró que la incidencia de DMNPT en nuestra población fue de 14.3% (32/224), con una mediana de aparición desde el procedimiento hasta el diagnóstico de 10 meses (IQR 1 - 40). De los 32 casos el 62.5% (20/32) fueron hombres, con una mediana de edad de 55.5 años. La presencia de encefalopatía (ORA 3,55 IC 95% 1.07-8.2), intolerancia a los carbohidratos (ORA 2,97 IC 95% 1.35-9.32) y el tiempo de isquemia (ORA 1.005 IC 95% 1.001 – 1.01) fueron significativamente asociados con el desenlace, en contraste la etiología autoinmune de la cirrosis se comportó como un factor protector (OR 0.34 IC 95% 0.12-091). CONCLUSIÓN: A pesar de las limitaciones del estudio, hay consistencia con resultados previos con respecto a la asociación entre estas variables independientes y el desarrollo de DMNPT, características que se deben tener en cuenta en el seguimiento de este grupo de pacientes estableciendo estrategias de seguimiento rigurosas y terapéuticas tempranas con miras a disminuir el riesgo de progresión a DM.
Resumo:
Since 1991 Colombia has had a market-determined Peso - US Dollar Nominal Exchange Rate (NER), after more than 20 years of controlled and multiple exchange rates. The behavior (revaluation / devaluation) of the NER is constantly reported in news, editorials and op-eds of major newspapers of the nation with particular attention to revaluation. The uneven reporting of revaluation episodes can be explained by the existence of an interest group particulary affected by revaluation, looking to increase awareness and sympathy for help from public institutions. Using the number of news and op-eds from a major Colombian newspaper, it is shown that there is an over-reporting of revaluation episodes in contrast to devaluation ones. Secondly, using text analysis upon the content of the news, it is also shown that the words devaluation and revaluation are far apart in the distribution of words within the news; and revaluation is highly correlated with words related to: public institutions, exporters and the need of assistance. Finally it is also shown that the probability of the central bank buying US dollars to lessen revaluation effects increases with the number of news; even though the central bank allegedly intervenes in the exchange rate market only to tame volatility or accumulate international reserves.