953 resultados para Root to shoot ratio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Wechselwirkungen zwischen Biomolekülen spielen eine zentrale Rolle in der biochemischen und pharmazeutischen Forschung. In der biomolekularen Interaktionsanalyse sind dabei Biosensoren auf Basis des Oberflächenplasmonresonanzeffekts (SPR-Effekt) weitverbreitet. Seit Einführung der ersten kommerziellen SPR-Biosensoren Anfang der 1990er Jahre wurden verschiedenste Messanordnungen sowie Materialsysteme mit dem Ziel einer möglichst hohen Empfindlichkeit getestet. Eine Möglichkeit zur Steigerung der Empfindlichkeit klassischer SPR-Systeme bieten sogenannte magneto-optische SPR-Biosensoren (MOSPR-Biosensoren). Grundlage der Empfindlichkeitssteigerung ist die gleichzeitige Messung des SPR-Effekts und des transversalen magneto-optischen KERR-Effekts (tMOKE). Bisherige Untersuchungen haben sich meist auf den Einfluss der Magnetisierung freier ferromagnetischer Schichten beschränkt. Im Rahmen dieser Arbeit wurden erstmals austauschverschobene Dünnschichtsysteme (EB-Systeme), eine Kombination aus Ferromagnet und Antiferromagnet, hinsichtlich ihrer Eignung für SPR- und MOSPR-basierte biosensorische Anwendungen untersucht. Aufgrund der remanenten Magnetisierung der ferromagnetischen Schicht und ihrer magnetischen Strukturierbarkeit sind EB-Systeme eine hochinteressante Plattform zur Realisierung neuer Biosensorkonzepte. Zur Reduzierung der stark dämpfendenden Wirkung magnetischer Materialien wurde das hier betrachtete IrMn/Co EB-System zwischen zwei Goldschichten eingebettet. Eine Gegenüberstellung optimierter Au/ IrMn/Co/Au-Systeme mit einem reinen Au-System, wie es typischerweise in kommerziellen SPR-basierten Biosensoren eingesetzt wird, demonstriert, dass mit den entwickelten EB-Systemen vergleichbare Empfindlichkeiten in SPR-Sensor-Anwendungen erreicht werden können. Die magneto-optische Aktivität der untersuchten Dünnschichtsysteme liegt im Bereich der Literaturwerte für Au/Co/Au-Systeme, mit denen erhöhte Empfindlichkeiten gegenüber Standard-SPR-Biosensoren realisiert wurden. Auf Grundlage magnetisch strukturierter Au/IrMn/Co/Au-Systeme wurden neue Biosensorkonzepte entwickelt und getestet. Erste Experimente belegen, dass mit diesen Schichtsystemen eine gleichzeitige Detektion der magnetisierungsabhängigen Reflektivitäten in ortsauflösenden MOSPR-Messungen möglich ist. Eine solche Messanordnung profitiert von der erhöhten Empfindlichkeit MOSPR-basierter Biosensoren, hohen Messgeschwindigkeiten und einem verbesserten Signal-Rausch-Verhältnis. Weiterhin wurde der domänenwandassistierte Transport (DOWMAT) superparamagnetischer Partikel über der Oberfläche eines exemplarischen EB-Systems, zur Sensorintegration von Misch-, Reinigungs- und Aufkonzentrationsfunktionen erfolgreich getestet. Die Ergebnisse demonstrieren, dass ein Transport von Partikelreihen mit hohen Geschwindigkeiten bei moderaten externen Magnetfeldern über den entwickelten Schichtsystemen möglich ist. Die Agglomeration der Partikel wird dabei intrinsisch vermieden. Diese Beobachtungen verdeutlichen die Vorzüge des DOWMAT-Mechanismus für biosensorische Anwendungen. Die präsentierten Untersuchungen bilden die Grundlage auf dem Weg zur Umsetzung neuer vielversprechender Biosensorkonzepte, die eine Schlüsselfunktion in der medizinischen point-of-care-Diagnostik bei der Detektion kleinster Konzentrationen krankheitsrelevanter Biomarker einnehmen können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

While protein microarray technology has been successful in demonstrating its usefulness for large scale high-throughput proteome profiling, performance of antibody/antigen microarrays has been only moderately productive. Immobilization of either the capture antibodies or the protein samples on solid supports has severe drawbacks. Denaturation of the immobilized proteins as well as inconsistent orientation of antibodies/ligands on the arrays can lead to erroneous results. This has prompted a number of studies to address these challenges by immobilizing proteins on biocompatible surfaces, which has met with limited success. Our strategy relates to a multiplexed, sensitive and high-throughput method for the screening quantification of intracellular signalling proteins from a complex mixture of proteins. Each signalling protein to be monitored has its capture moiety linked to a specific oligo ‘tag’. The array involves the oligonucleotide hybridization-directed localization and identification of different signalling proteins simultaneously, in a rapid and easy manner. Antibodies have been used as the capture moieties for specific identification of each signaling protein. The method involves covalently partnering each antibody/protein molecule with a unique DNA or DNA derivatives oligonucleotide tag that directs the antibody to a unique site on the microarray due to specific hybridization with a complementary tag-probe on the array. Particular surface modifications and optimal conditions allowed high signal to noise ratio which is essential to the success of this approach.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Compositional data naturally arises from the scientific analysis of the chemical composition of archaeological material such as ceramic and glass artefacts. Data of this type can be explored using a variety of techniques, from standard multivariate methods such as principal components analysis and cluster analysis, to methods based upon the use of log-ratios. The general aim is to identify groups of chemically similar artefacts that could potentially be used to answer questions of provenance. This paper will demonstrate work in progress on the development of a documented library of methods, implemented using the statistical package R, for the analysis of compositional data. R is an open source package that makes available very powerful statistical facilities at no cost. We aim to show how, with the aid of statistical software such as R, traditional exploratory multivariate analysis can easily be used alongside, or in combination with, specialist techniques of compositional data analysis. The library has been developed from a core of basic R functionality, together with purpose-written routines arising from our own research (for example that reported at CoDaWork'03). In addition, we have included other appropriate publicly available techniques and libraries that have been implemented in R by other authors. Available functions range from standard multivariate techniques through to various approaches to log-ratio analysis and zero replacement. We also discuss and demonstrate a small selection of relatively new techniques that have hitherto been little-used in archaeometric applications involving compositional data. The application of the library to the analysis of data arising in archaeometry will be demonstrated; results from different analyses will be compared; and the utility of the various methods discussed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción. El ataque cerebrovascular (ACV) ocupa el primer lugar en frecuencia entre todas las enfermedades neurológicas de la vida adulta, y el tercer lugar como causa más frecuente de muerte. Se aprobó para el manejo agudo, la terapia con activador del plasminógeno tisular recombinante (t-PA) en las primeras 4,5 horas después del inicio de los síntomas, demostrando mayor sobrevida y menos niveles de discapacidad. Sin embargo solo el 5-10% de pacientes reciben este manejo. Por estas razones es necesario conocer que factores se asocian con la no intervención terapéutica. Objetivo. Describir los factores asociados con la no trombolisis en pacientes con ataque cerebrovascular en un hospital de IV nivel en Bogotá, Colombia. Métodos. Estudio analítico de corte transversal, en un centro de cuarto nivel en Bogotá entre enero de 2009 y enero de 2011. Resultados. Se encontraron 178 pacientes en un promedio de edad de 65,9 años (DE± 10 años) con una relación hombre-mujer 1:1, la principal causa de no trombolisis fue la ventana mayor a 4.5 horas, 33,7% (n=60), 26,4% por cambios en imágenes diagnosticas, y 14% por puntajes leves o severos en las escala National Institute of Health Stroke Scale (NIHSS), historia quirúrgica 7.3% y laboratorios 4.5%. El tiempo promedio de atención fue 23 minutos (DE ± 21 min) para la activación del código de ACV, 39 minutos para valoración por neurología (DE ± 25 min), 46 minutos (DE ± 19,1 min) para toma de paraclínicos, 66 minutos para toma de imágenes y 97 minutos para trombolisis (DE ± 21min, DE ± 17 min, respectivamente). Se realizó trombolisis en 17 pacientes, 9,6%. No se encontró asociación significativa entre cultura de organización con trombolisis ni de tiempos de atención con trombolisis. Conclusiones. La principal razón de no trombolisis, fue la ventana mayor a 4.5 horas, no se encontró relación entre cultura de organización institucional con trombolisis. El tiempo promedio de trombolisis fue de 90 minutos. Deben instaurarse medidas para reducir el tiempo de llegada al hospital, y los tiempos de atención en urgencias. Deben realizarse nuevas evaluaciones del código ACV posterior a las estrategias de mejoría.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta monografía cuestiona la validez de la crítica de Gettier a la suficiencia de lo que ha sido conocido como el análisis “tradicional” del conocimiento. Este análisis establece el conocimiento como creencia, verdadera justificada. Gettier en su famoso artículo "Is Justified True Belief Knowledge?" Propone una serie de contraejemplos que parecen cumplir con las tres condiciones recién establecidas, pero no puede ser considerado conocimiento. La monografía explora dos estrategias principales para responderle a Gettier: por un lado, me pregunto sí los contraejemplos realmente cumplen con las tres condiciones. Yo argumento que los contraejemplos de Gettier son imperfectos en cuanto a que no pueden cumplir con la condición de creencia; y si esto es así los contraejemplos no serían una amenaza al análisis “tradicional” del conocimiento ni tampoco serían una prueba de su insuficiencia. Por otro lado, si uno pudiera aceptar la validez de los contraejemplos uno podría aun cuestionar su relevancia. Esto es lo que pretendo hacer en la segunda parte de este trabajo. Intento mostrar que una solución al problema de Gettier no mejora para nada nuestra investigación metodológica, ni cambia de ninguna manera la forma en que nosotros adquirimos nuestras creencias y nuestro conocimiento en general. Por lo tanto, los contraejemplos de Gettier aun si pudieran funcionar correctamente (lo cual defiendo en la primera parte de la monografía que no es así) son irrelevantes y no son una amenaza real al análisis “tradicional” del conocimiento. La monografía se propone, entonces, efectuar una disolución más que una solución al problema de Gettier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo: Determinar los valores del índice cintura/cadera (ICC) en una población escolar de Bogotá, Colombia, pertenecientes al estudio FUPRECOL. Métodos: Estudio descriptivo y transversal, realizado en 3.005 niños y 2.916 adolescentes de entre 9 y 17,9 años de edad, pertenecientes a 24 instituciones educativas oficiales de Bogotá, Colombia. Se tomaron medidas de peso, talla, circunferencia de cintura, circunferencia de cadera. El estado de maduración sexual se recogió por auto-reporte. Se calcularon los percentiles (P3, P10, P25, P50, P75, P90 y P97) según sexo y edad y se realizó una comparación entre los valores del ICC observados con estándares internacionales. Resultados: De la población general (n=5.921), el 57,0% eran mujeres (promedio de edad 12,7 ± 2,3 años). En todas las edades el ICC fue mayor en los varones que en las mujeres, observándose un descenso en la media de los valores obtenidos desde los 9 hasta los 17,9 años. En varones, los valores del ICC mayores del P90 (asociados a riesgo cardiovascular) estuvieron en el rango 0,87 y 0,93 y en las mujeres entre 0,85 y 0,89. Al comparar los resultados de este estudio, por grupos de edad y sexo, con trabajos internacionales de niños y adolescentes de Europa, Suramérica, Asia y África, se observa que los valores del ICC fueron menores en este estudio en ambos sexos, con excepción de los escolares originarios de Grecia y Venezuela. Conclusiones: Se presentan percentiles del ICC según edad y sexo que podrán ser usados de referencia en la evaluación del estado nutricional y en la predicción del riesgo cardiovascular desde edades tempranas en población de Bogotá, Colombia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: La calidad de las compresiones torácicas tiene importancia durante la reanimación pediátrica y se ve afectada por diversos factores como la fatiga del reanimador, esta puede verse condicionada por las características de las compresiones establecidas según la presencia o ausencia de un dispositivo avanzado en la vía aérea determinando la interrupción continuidad de las mismas. En este estudio se realizó una simulación clínica, evaluando la presencia de fatiga del reanimador frente a pacientes con y sin dispositivo avanzado de la vía aérea. Metodología: Se incluyeron 12 participantes, quienes realizaron compresiones torácicas a un simulador clínico, tanto para el caso de la maniobra 1 correspondiente a ciclos interrumpidos con el fin de proporcionar ventilaciones, como para el caso de la maniobra 2 en la que la actividad fue continua. Se midieron calidad de compresiones, VO2 max y fatiga mediante escala de Borg RPE 6-20. Resultados: La calidad de las compresiones disminuyó en ambos grupos después del minuto 2 y más rápidamente cuando fueron ininterrumpidas. La fatiga se incrementó cuando las compresiones fueron continuas. Discusión: Se evidencia una relación directamente proporcional del aumento de la fatiga en relación al tiempo de reanimación e inversamente proporcional entre la calidad de las compresiones y la sensación de cansancio, en especial después del minuto 2. Un tiempo de 2 minutos podría ser el tiempo ideal para lograr compresiones de calidad y para realizar el reemplazo de la persona que realiza las compresiones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se estudia el caso de la cosmología del filósofo y científico Robert Grosseteste como un ejemplo de la notable influencia del neoplatonismo en la ciencia medieval. Uno de los propósitos de la cosmología de Grosseteste consistió en explicar la secuencia efectiva de la creación del cosmos. Sostengo que la explicación que ofrece Grosseteste acerca de la creación es una expresión renovada de algunas ideas de Plotino a propósito de cómo el Uno engendra lo múltiple. Me interesa resaltar tres aspectos de la estrecha relación entre el sistema cosmológico de Grosseteste y el sistema metafísico de Plotino: (1) Unidad de principio, (2) Mecanismos de generación y (3) Unidad del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper evaluates the directional effects of two hearing devices – an antique London Dome horn style device and a constructed Cupped Hand. The comparisons were made using the Quick SIN (Speech in Noise) adaptive test which measures signal-to-noise ratio loss.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Europe has responded to the crisis with strengthened budgetary and macroeconomic surveillance, the creation of the European Stability Mechanism, liquidity provisioning by resilient economies and the European Central Bank and a process towards a banking union. However, a monetary union requires some form of budget for fiscal stabilisation in case of shocks, and as a backstop to the banking union. This paper compares four quantitatively different schemes of fiscal stabilisation and proposes a new scheme based on GDP-indexed bonds. The options considered are: (i) A federal budget with unemployment and corporate taxes shifted to euro-area level; (ii) a support scheme based on deviations from potential output;(iii) an insurance scheme via which governments would issue bonds indexed to GDP, and (iv) a scheme in which access to jointly guaranteed borrowing is combined with gradual withdrawal of fiscal sovereignty. Our comparison is based on strong assumptions. We carry out a preliminary, limited simulation of how the debt-to-GDP ratio would have developed between 2008-14 under the four schemes for Greece, Ireland, Portugal, Spain and an ‘average’ country.The schemes have varying implications in each case for debt sustainability

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For the very large nonlinear dynamical systems that arise in a wide range of physical, biological and environmental problems, the data needed to initialize a numerical forecasting model are seldom available. To generate accurate estimates of the expected states of the system, both current and future, the technique of ‘data assimilation’ is used to combine the numerical model predictions with observations of the system measured over time. Assimilation of data is an inverse problem that for very large-scale systems is generally ill-posed. In four-dimensional variational assimilation schemes, the dynamical model equations provide constraints that act to spread information into data sparse regions, enabling the state of the system to be reconstructed accurately. The mechanism for this is not well understood. Singular value decomposition techniques are applied here to the observability matrix of the system in order to analyse the critical features in this process. Simplified models are used to demonstrate how information is propagated from observed regions into unobserved areas. The impact of the size of the observational noise and the temporal position of the observations is examined. The best signal-to-noise ratio needed to extract the most information from the observations is estimated using Tikhonov regularization theory. Copyright © 2005 John Wiley & Sons, Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The performance of boreal winter forecasts made with the European Centre for Medium-Range Weather Forecasts (ECMWF) System 11 Seasonal Forecasting System is investigated through analyses of ensemble hindcasts for the period 1987-2001. The predictability, or signal-to-noise ratio, associated with the forecasts, and the forecast skill are examined. On average, forecasts of 500 hPa geopotential height (GPH) have skill in most of the Tropics and in a few regions of the extratropics. There is broad, but not perfect, agreement between regions of high predictability and regions of high skill. However, model errors are also identified, in particular regions where the forecast ensemble spread appears too small. For individual winters the information provided by t-values, a simple measure of the forecast signal-to-noise ratio, is investigated. For 2 m surface air temperature (T2m), highest t-values are found in the Tropics but there is considerable interannual variability, and in the tropical Atlantic and Indian basins this variability is not directly tied to the El Nino Southern Oscillation. For GPH there is also large interannual variability in t-values, but these variations cannot easily be predicted from the strength of the tropical sea-surface-temperature anomalies. It is argued that the t-values for 500 hPa GPH can give valuable insight into the oceanic forcing of the atmosphere that generates predictable signals in the model. Consequently, t-values may be a useful tool for understanding, at a mechanistic level, forecast successes and failures. Lastly, the extent to which t-values are useful as a predictor of forecast skill is investigated. For T2m, t-values provide a useful predictor of forecast skill in both the Tropics and extratropics. Except in the equatorial east Pacific, most of the information in t-values is associated with interannual variability of the ensemble-mean forecast rather than interannual variability of the ensemble spread. For GPH, however, t-values provide a useful predictor of forecast skill only in the tropical Pacific region.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Discrepancies between recent global earth albedo anomaly data obtained from the climate models, space and ground observations call for a new and better earth reflectance measurement technique. The SALEX (Space Ashen Light Explorer) instrument is a space-based visible and IR instrument for precise estimation of the global earth albedo by measuring the ashen light reflected off the shadowy side of the Moon from the low earth orbit. The instrument consists of a conventional 2-mirror telescope, a pair of a 3-mirror visible imager and an IR bolometer. The performance of this unique multi-channel optical system is sensitive to the stray light contamination due to the complex optical train incorporating several reflecting and refracting elements, associated mounts and the payload mechanical enclosure. This could be further aggravated by the very bright and extended observation target (i.e. the Moon). In this paper, we report the details of extensive stray light analysis including ghosts and cross-talks, leading to the optimum set of stray light precautions for the highest signal-to-noise ratio attainable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This note considers the variance estimation for population size estimators based on capture–recapture experiments. Whereas a diversity of estimators of the population size has been suggested, the question of estimating the associated variances is less frequently addressed. This note points out that the technique of conditioning can be applied here successfully which also allows us to identify sources of variation: the variance due to estimation of the model parameters and the binomial variance due to sampling n units from a population of size N. It is applied to estimators typically used in capture–recapture experiments in continuous time including the estimators of Zelterman and Chao and improves upon previously used variance estimators. In addition, knowledge of the variances associated with the estimators by Zelterman and Chao allows the suggestion of a new estimator as the weighted sum of the two. The decomposition of the variance into the two sources allows also a new understanding of how resampling techniques like the Bootstrap could be used appropriately. Finally, the sample size question for capture–recapture experiments is addressed. Since the variance of population size estimators increases with the sample size, it is suggested to use relative measures such as the observed-to-hidden ratio or the completeness of identification proportion for approaching the question of sample size choice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sixteen multiparous Holstein cows were used to determine the effects of 2-hydroxy-4-(methylthio) butanoic acid isopropyl ester (HMBi: 0 vs. 1.26 g/kg of total ration dry matter (DM) and dietary crude protein (CP) concentration [14.7% (low) vs. 16.9% (standard), DM basis] on milk yield and composition using a replicated 4 x 4 Latin square design experiment with 4-wk periods. Cows were fed ad libitum a total mixed ration with a 1: 1 forage-to-concentrate ratio (DM basis), and diets provided an estimated 6.71 and 1.86% lysine and methionine, respectively, in metabolizable protein for the low-protein diet and 6.74 and 1.82% in the standard protein diet. Dry matter intake, milk yield, and composition were measured during wk 4 of each period. There were no effects on DM intake, which averaged 24.7 kg/d. There was an interaction between dietary CP and HMBi for milk yield and 3.5% fat-corrected milk (FCM). Feeding HMBi decreased milk and FCM yield when fed with the low-CP diet but did not affect milk or FCM yield when fed with the standard CP diet. Feeding HMBi increased milk protein concentration regardless of diet CP concentration and increased milk protein yield when added to the standard CP diet but not the low-CP diet. The positive effect of HMBi on milk protein yield was only observed at the standard level of dietary CP, suggesting other factors limited the response to HMBi when dietary protein supply was restricted.