973 resultados para 1 sigma standard deviation for the average


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The high molecular weight and low concentration of brain glycogen render its noninvasive quantification challenging. Therefore, the precision increase of the quantification by localized (13) C MR at 9.4 to 14.1 T was investigated. Signal-to-noise ratio increased by 66%, slightly offset by a T(1) increase of 332 ± 15 to 521 ± 34 ms. Isotopic enrichment after long-term (13) C administration was comparable (≈ 40%) as was the nominal linewidth of glycogen C1 (≈ 50 Hz). Among the factors that contributed to the 66% observed increase in signal-to-noise ratio, the T(1) relaxation time impacted the effective signal-to-noise ratio by only 10% at a repetition time = 1 s. The signal-to-noise ratio increase together with the larger spectral dispersion at 14.1 T resulted in a better defined baseline, which allowed for more accurate fitting. Quantified glycogen concentrations were 5.8 ± 0.9 mM at 9.4 T and 6.0 ± 0.4 mM at 14.1 T; the decreased standard deviation demonstrates the compounded effect of increased magnetization and improved baseline on the precision of glycogen quantification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Spontaneous CD4(+) T-cell responses to the tumor-specific antigen NY-ESO-1 (ESO) are frequently found in patients with epithelial ovarian cancer (EOC). If these responses are of effector or/and Treg type, however, has remained unclear. Here, we have used functional approaches together with recently developed MHC class II/ESO tetramers to assess the frequency, phenotype and function of ESO-specific cells in circulating lymphocytes from EOC patients. We found that circulating ESO-specific CD4(+) T cells in EOC patients with spontaneous immune responses to the antigen are prevalently T(H)1 type cells secreting IFN-γ but no IL-17 or IL-10 and are not suppressive. We detected tetramer(+) cells ex vivo, at an average frequency of 1:25,000 memory cells, that is, significantly lower than in patients immunized with an ESO vaccine. ESO tetramer(+) cells were mostly effector memory cells at advanced stages of differentiation and were not detected in circulating CD25(+)FOXP3(+)Treg. Thus, spontaneous CD4(+) T-cell responses to ESO in cancer patients are prevalently of T(H)1 type and not Treg. Their relatively low frequency and advanced differentiation stage, however, may limit their efficacy, that may be boosted by immunogenic ESO vaccines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this study was to develop an ambulatory system for the three-dimensional (3D) knee kinematics evaluation, which can be used outside a laboratory during long-term monitoring. In order to show the efficacy of this ambulatory system, knee function was analysed using this system, after an anterior cruciate ligament (ACL) lesion, and after reconstructive surgery. The proposed system was composed of two 3D gyroscopes, fixed on the shank and on the thigh, and a portable data logger for signal recording. The measured parameters were the 3D mean range of motion (ROM) and the healthy knee was used as control. The precision of this system was first assessed using an ultrasound reference system. The repeatability was also estimated. A clinical study was then performed on five unilateral ACL-deficient men (range: 19-36 years) prior to, and a year after the surgery. The patients were evaluated with the IKDC score and the kinematics measurements were carried out on a 30 m walking trial. The precision in comparison with the reference system was 4.4 degrees , 2.7 degrees and 4.2 degrees for flexion-extension, internal-external rotation, and abduction-adduction, respectively. The repeatability of the results for the three directions was 0.8 degrees , 0.7 degrees and 1.8 degrees . The averaged ROM of the five patients' healthy knee were 70.1 degrees (standard deviation (SD) 5.8 degrees), 24.0 degrees (SD 3.0 degrees) and 12.0 degrees (SD 6.3 degrees for flexion-extension, internal-external rotation and abduction-adduction before surgery, and 76.5 degrees (SD 4.1 degrees), 21.7 degrees (SD 4.9 degrees) and 10.2 degrees (SD 4.6 degrees) 1 year following the reconstruction. The results for the pathologic knee were 64.5 degrees (SD 6.9 degrees), 20.6 degrees (SD 4.0 degrees) and 19.7 degrees (8.2 degrees) during the first evaluation, and 72.3 degrees (SD 2.4 degrees), 25.8 degrees (SD 6.4 degrees) and 12.4 degrees (SD 2.3 degrees) during the second one. The performance of the system enabled us to detect knee function modifications in the sagittal and transverse plane. Prior to the reconstruction, the ROM of the injured knee was lower in flexion-extension and internal-external rotation in comparison with the controlateral knee. One year after the surgery, four patients were classified normal (A) and one almost normal (B), according to the IKDC score, and changes in the kinematics of the five patients remained: lower flexion-extension ROM and higher internal-external rotation ROM in comparison with the controlateral knee. The 3D kinematics was changed after an ACL lesion and remained altered one year after the surgery

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This chapter presents possible uses and examples of Monte Carlo methods for the evaluation of uncertainties in the field of radionuclide metrology. The method is already well documented in GUM supplement 1, but here we present a more restrictive approach, where the quantities of interest calculated by the Monte Carlo method are estimators of the expectation and standard deviation of the measurand, and the Monte Carlo method is used to propagate the uncertainties of the input parameters through the measurement model. This approach is illustrated by an example of the activity calibration of a 103Pd source by liquid scintillation counting and the calculation of a linear regression on experimental data points. An electronic supplement presents some algorithms which may be used to generate random numbers with various statistical distributions, for the implementation of this Monte Carlo calculation method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this study was to determine the middle latency response (MLR) characteristics (latency and amplitude) in children with (central) auditory processing disorder [(C)APD], categorized as such by their performance on the central auditory test battery, and the effects of these characteristics after auditory training. Thirty children with (C)APD, 8 to 14 years of age, were tested using the MLR-evoked potential. This group was then enrolled in an 8-week auditory training program and then retested at the completion of the program. A control group of 22 children without (C)APD, composed of relatives and acquaintances of those involved in the research, underwent the same testing at equal time intervals, but were not enrolled in the auditory training program. Before auditory training, MLR results for the (C)APD group exhibited lower C3-A1 and C3-A2 wave amplitudes in comparison to the control group [C3-A1, 0.84 µV (mean), 0.39 (SD - standard deviation) for the (C)APD group and 1.18 µV (mean), 0.65 (SD) for the control group; C3-A2, 0.69 µV (mean), 0.31 (SD) for the (C)APD group and 1.00 µV (mean), 0.46 (SD) for the control group]. After training, the MLR C3-A1 [1.59 µV (mean), 0.82 (SD)] and C3-A2 [1.24 µV (mean), 0.73 (SD)] wave amplitudes of the (C)APD group significantly increased, so that there was no longer a significant difference in MLR amplitude between (C)APD and control groups. These findings suggest progress in the use of electrophysiological measurements for the diagnosis and treatment of (C)APD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Exposure to air pollutants is associated with hospitalizations due to pneumonia in children. We hypothesized the length of hospitalization due to pneumonia may be dependent on air pollutant concentrations. Therefore, we built a computational model using fuzzy logic tools to predict the mean time of hospitalization due to pneumonia in children living in São José dos Campos, SP, Brazil. The model was built with four inputs related to pollutant concentrations and effective temperature, and the output was related to the mean length of hospitalization. Each input had two membership functions and the output had four membership functions, generating 16 rules. The model was validated against real data, and a receiver operating characteristic (ROC) curve was constructed to evaluate model performance. The values predicted by the model were significantly correlated with real data. Sulfur dioxide and particulate matter significantly predicted the mean length of hospitalization in lags 0, 1, and 2. This model can contribute to the care provided to children with pneumonia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A method using L-cysteine for the determination of arsenous acid (As(III)), arsenic acid (As(V)), monomethylarsonic acid (MMAA), and dimethylarsinic acid (DMAA) by hydride generation was demonstrated. The instrument used was a d.c. plasma atomic emission spectrometer (OCP-AES). Complete recovery was reported for As(III), As(V), and DMAA while 86% recovery was reported for MMAA. Detection limits were determined, as arsenic for the species listed previously, to be 1.2, 0.8, 1.1, and 1.0 ngemL-l, respectively. Precision values, at 50 ngemL-1 arsenic concentration, were f.80/0, 2.50/0, 2.6% and 2.6% relative standard deviation, respectively. The L-cysteine reagent was compared directly with the conventional hydride generation technique which uses a potassium iodide-hydrochloric acid medium. Recoveries using L-cysteine when compared with the conventional method provided the following results: similar recoveries were obtained for As(III), slightly better recoveries were obtained for As(V) and MMAA, and significantly better recoveries for DMAA. In addition, tall and sharp peak shapes were observed for all four species when using L-cysteine. The arsenic speciation method involved separation by ion exchange .. high perfonnance liquid chromatography (HPLC) with on-line hydride generation using the L.. cysteine reagent and measurement byOCP-AES. Total analysis time per sample was 12 min while the time between the start of subsequent runs was approximately 20 min. A binary . gradient elution program, which incorporated the following two eluents: 0.01 and 0.5 mM tri.. sodium citrate both containing 5% methanol (v/v) and both at a pH of approximately 9, was used during the separation by HPLC. Recoveries of the four species which were measured as peak area, and were normalized against As(III), were 880/0, 290/0, and 40% for DMAA, MMAA and As(V), respectively. Resolution factors between adjacent analyte peaks of As(III) and DMAA was 1.1; DMAA and MMAA was 1.3; and MMAA and As(V) was 8.6. During the arsenic speciation study, signals from the d.c. plasma optical system were measured using a new photon-signal integrating device. The_new photon integrator developed and built in this laboratory was based on a previously published design which was further modified to reflect current available hardware. This photon integrator was interfaced to a personal computer through an AID convertor. The .photon integrator has adjustable threshold settings and an adjustable post-gain device.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen: En la población docente, el uso de la voz como principal herramienta del trabajo por su esfuerzo constante y prolongado constituye el principal factor de riesgo para padecer trastornos de la voz, concomitante con otros factores que inciden en la presentación de estas patologías. Objetivo: Determinar la prevalencia de los trastornos en la voz y sus factores asociados de la población docente de dos instituciones de educación superior (IES) en Colombia y los factores de riesgo asociados. Materiales y métodos: Se realizó un estudio descriptivo de tipo transversal, en el que participaron 149 docentes de dos IES (instituciones de educación superior) de dos ciudades de Colombia. Se aplicó un cuestionario sustentado en el Modelo de Técnicas Foniátricas para Prevenir la Disfonía en Profesores de Secundaria en Portugal y validado por la escuela de Medicina y Ciencias de la Salud, programa de fonoaudiología de la Universidad del Rosario con el trabajo denominado “La Voz como herramienta de trabajo” para Colombia; el cual indagaba los factores riesgo asociados al uso de la voz en el quehacer docente. Se realizó un análisis descriptivo de las variables cualitativas con frecuencias absolutas y porcentajes, medidas de tendencia central, promedio y mediana, de dispersión y desviación estándar. La información recolectada fue analizada con el software SPSS.PASW 18. La correlación entre las variables dependientes y las independientes, se realizaron con el coeficiente no-paramétrico de Spearman y la asociación con la prueba Ji-cuadrado de Pearson o el test exacto de Fisher (valores esperados < 5). Se evaluaron las distribuciones de las variables ordinales de las variables de problemas de la voz con el género, con la prueba no-paramétrica exacta de Mann Whitney. Las pruebas estadísticas se evaluaron a un nivel de significancia del 5% (p<0.05). Resultados: El promedio de edad fue de 36±11.7 años, con un rango que varió entre 25 y 68 años. El género más frecuente fue el masculino con 57,0% de participación. Los datos presentados se dan como resultado de las respuestas a tres preguntas indicativas de los trastornos de voz, las cuales no fueron respondidas por la totalidad de los docentes, por esta razón los datos se presentan así t= número total de personas que respondieron la pregunta y n= número de personas que respondieron afirmativamente. La prevalencia de alteración de voz fue del 63,4% (t=82; n=52), de disminución en el volumen de su voz de 57,3% (t=122; n=70) y cansancio laríngeo en el 76,8% (t=121; n=93). El cansancio laríngeo fue significativamente mayor en los hombres que en las mujeres (p=0.026, Test Mann Whitney exacto a una cola), con algunos hábitos de voz como el realizar esfuerzos en el cuello al hablar (rs = 0,461; p< 0,001) y con la dificultad para inhalar o exhalar aire al hablar (rs = 0,368; p<0.001), con el ruido de fondo (rs =0,361, p<0,001), al permanecer en ambientes contaminados con polvo y humedad (rs=0,311; p=0.001), con sufrir de estrés representado por dolor cervical en espalda y hombros (rs=0,349, p<0.001), y con los problemas familiares (rs= 0,397; p<0.001). Al analizar con la disminución del volumen de voz durante la práctica docente, las correlaciones más significativas mostradas fue estadísticamente mayor entre los hombres que en las mujeres (p=0.006, Test Mann Whitney exacto a una cola), con el esfuerzo cervical para hablar (rs =:0,596, p=<,001), y con el presentar dificultad para inhalar/exhalar aire al usar la voz (rs =0,508, p<,001), con la exposición a ruido de fondo (rs=0,204, p=0,030), ambientes contaminados con polvo y humedad (rs:=305, p<,001), con el estrés (rs =0,316, p=0,001), con los problemas familiares (rs =0,560, p<,001) y en las mujeres con la alteración de la voz en presencia de la menstruación (rs =0,751, p=0,000). Por último, se correlacionó con las alteraciones de voz durante la exposición laboral en la que se mostró mayor correlación en las mujeres que en los hombres (p=0.001, Test Mann Whitney exacto a una cola). Se mostró correlación directa con el no realizar pausas al hablar (rs=0,337, p<0,001), con toser para aclarar la voz (rs =0,349, p=0,001), y con el uso de la voz grave (rs =0,975; p=,004) ,con la presencia de ruido de fondo mientras se dicta clase (rs =0,370, p=0,001) con el permanecer en ambientes contaminados con polvo y humedad (rs =0,253,p=,023), con los síntomas cervicales asociados al estrés (rs=0,323, p=0,003), e inversa con los cambios en tono y volumen de la voz en presencia de menstruación en las mujeres (rs=-0,414,p=,017). Conclusiones: Con los hallazgos encontrados en este estudio es importante reconocer que en las características demográficas, se encontró que el género masculino refirió mayor cantidad de problemas de voz. Para las características laborales la antigüedad ocupacional es factor principal que incide en los problemas de voz; en el análisis de las características demográfico– laborales en las variables analizadas, el grupo etario que reporto cansancio laríngeo se encontraba entre los 36 a 45 años de edad, y los que referían un tiempo de exposición ocupacional mayor a 6 y menor a 15 años. En cuanto a los factores ambientales se identificó que la asociación más significativa está relacionada con estar sometido a cambios bruscos de temperatura, estar expuesto a ruido de fondo durante su labor y finalmente a permanecer en ambientes contaminados. Por ultimo al analizar las alteraciones de la voz con las características personales de los docentes, se observó que el estrés y los problemas familiares inciden de forma significativa en estas patologías. Con estos resultados se recomienda establecer un sistema de vigilancia epidemiológica en las IES, donde se capacite integralmente a los docentes en cuanto a los factores de riesgo personales y de hábitos de voz, además de supervisar y adecuar los factores ambientales que inciden en la presentación de trastornos de voz para evitar la presentación de estas patologías.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se realizó estudio cuasi experimental con el fin de comparar el efecto sobre la carga física de una intervención tecnológica y en la organización del trabajo en trabajadores en el cargo de horneros en la tarea de extracción de coque en Colombia. Se midió la carga física mediante frecuencia cardiaca e índice de costo cardiaco relativo en una población de trabajadores expuestos (37) y no expuestos (66) a una intervención tecnológica. La monitorización de la frecuencia cardiaca se realizó con 7 pulsímetros Polar RS 800cx debidamente calibrados. Las variables numéricas se describieron con base en la media aritmética, su desviación estándar, y el rango. Para evaluar la diferencia entre las medias de los grupos con respecto a la frecuencia cardiaca en reposo, media, máxima, índice de costo cardiaco relativo, gasto energético de trabajo se aplicó análisis de varianza de una vía. Se estableció a priori un nivel de significación estadística α = 0,05. Se encontraron diferencias estadísticamente significativas en el comportamiento de la frecuencia cardiaca media, frecuencia cardiaca máxima e índice de costo cardiaco relativo, entre los grupos de estudio. Se concluyó que este estudio valida la frecuencia cardiaca como una variable sensible para la medición del riesgo por carga física y a su utilidad en la evaluación intervenciones ergonómica. El estudio demostró que la intervención ergonómica logró controlar la carga física con una disminución significativa la frecuencia cardiaca, en el grupo de intervención.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The ir absorption of gaseous 15NH3 between 510 and 3040 cm−1 was recorded with a resolution of 0.06 cm−1. The ν2, 2ν2, 3ν2, ν4, and ν2 + ν4 bands were measured and analyzed on the basis of the vibration-rotation Hamiltonian developed by V. Špirko, J. M. R. Stone, and D. Papoušek (J. Mol. Spectrosc. 60, 159–178 (1976)). A set of effective molecular parameters for the ν2 = 1, 2, 3 states was derived, which reproduced the transition frequencies within the accuracy of the experimental measurements. For ν4 and ν2 + ν4 bands the standard deviation of the calculated spectrum is about four times larger than the measurements accuracy: a similar result was found for ν4 in 14NH3 by Š. Urban et al. (J. Mol. Spectrosc. 79, 455–495 (1980)). This result suggests that the present treatment takes into account only the most significant part of the rovibration interaction in the doubly degenerate vibrational states of ammonia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Arctic is a region particularly susceptible to rapid climate change. General circulation models (GCMs) suggest a polar amplification of any global warming signal by a factor of about 1.5 due, in part, to sea ice feedbacks. The dramatic recent decline in multi-year sea ice cover lies outside the standard deviation of the CMIP3 ensemble GCM predictions. Sea ice acts as a barrier between cold air and warmer oceans during winter, as well as inhibiting evaporation from the ocean surface water during the summer. An ice free Arctic would likely have an altered hydrological cycle with more evaporation from the ocean surface leading to changes in precipitation distribution and amount. Using the U.K. Met Office Regional Climate Model (RCM), HadRM3, the atmospheric effects of the observed and projected reduction in Arctic sea ice are investigated. The RCM is driven by the atmospheric GCM HadAM3. Both models are forced with sea surface temperature and sea ice for the period 2061-2090 from the CMIP3 HadGEM1 experiments. Here we use an RCM at 50km resolution over the Arctic and 25km over Svalbard, which captures well the present-day pattern of precipitation and provides a detailed picture of the projected changes in the behaviour of the oceanic-atmosphere moisture fluxes and how they affect precipitation. These experiments show that the projected 21stCentury sea ice decline alone causes large impacts to the surface mass balance (SMB) on Svalbard. However Greenland’s SMB is not significantly affected by sea ice decline alone, but responds with a strongly negative shift in SMB when changes to SST are incorporated into the experiments. This is the first study to characterise the impact of changes in future sea ice to Arctic terrestrial cryosphere mass balance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A study of the concurrent relationships between naming speed, phonological awareness and spelling ability in 146 children in Year 3 and 4 of state funded school in SE England (equivalent to US Grades 2 and 3) is reported. Seventy-two children identified as having normal phonological awareness but reduced rapid automatized naming (RAN) performance (1 standard deviation below the mean) participated in the study. A group of 74 children were further identified. These children were matched on phonological awareness, verbal and non verbal IQ, and visual acuity but all members of this group showed normal rapid automatized naming performance. Rapid automatized naming made a significant unique contribution to spelling performance. Further analyses showed that the participants with low naming performance were significantly poorer spellers overall and had a specific difficulty in spelling irregular words. The findings support the view that rapid automatized naming may be indexing processes that are implicated in the establishment of fully specified orthographic representations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sea surface temperature (SST) can be estimated from day and night observations of the Spinning Enhanced Visible and Infra-Red Imager (SEVIRI) by optimal estimation (OE). We show that exploiting the 8.7 μm channel, in addition to the “traditional” wavelengths of 10.8 and 12.0 μm, improves OE SST retrieval statistics in validation. However, the main benefit is an improvement in the sensitivity of the SST estimate to variability in true SST. In a fair, single-pixel comparison, the 3-channel OE gives better results than the SST estimation technique presently operational within the Ocean and Sea Ice Satellite Application Facility. This operational technique is to use SST retrieval coefficients, followed by a bias-correction step informed by radiative transfer simulation. However, the operational technique has an additional “atmospheric correction smoothing”, which improves its noise performance, and hitherto had no analogue within the OE framework. Here, we propose an analogue to atmospheric correction smoothing, based on the expectation that atmospheric total column water vapour has a longer spatial correlation length scale than SST features. The approach extends the observations input to the OE to include the averaged brightness temperatures (BTs) of nearby clear-sky pixels, in addition to the BTs of the pixel for which SST is being retrieved. The retrieved quantities are then the single-pixel SST and the clear-sky total column water vapour averaged over the vicinity of the pixel. This reduces the noise in the retrieved SST significantly. The robust standard deviation of the new OE SST compared to matched drifting buoys becomes 0.39 K for all data. The smoothed OE gives SST sensitivity of 98% on average. This means that diurnal temperature variability and ocean frontal gradients are more faithfully estimated, and that the influence of the prior SST used is minimal (2%). This benefit is not available using traditional atmospheric correction smoothing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Most of the operational Sea Surface Temperature (SST) products derived from satellite infrared radiometry use multi-spectral algorithms. They show, in general, reasonable performances with root mean square (RMS) residuals around 0.5 K when validated against buoy measurements, but have limitations, particularly a component of the retrieval error that relates to such algorithms' limited ability to cope with the full variability of atmospheric absorption and emission. We propose to use forecast atmospheric profiles and a radiative transfer model to simulate the algorithmic errors of multi-spectral algorithms. In the practical case of SST derived from the Spinning Enhanced Visible and Infrared Imager (SEVIRI) onboard Meteosat Second Generation (MSG), we demonstrate that simulated algorithmic errors do explain a significant component of the actual errors observed for the non linear (NL) split window algorithm in operational use at the Centre de Météorologie Spatiale (CMS). The simulated errors, used as correction terms, reduce significantly the regional biases of the NL algorithm as well as the standard deviation of the differences with drifting buoy measurements. The availability of atmospheric profiles associated with observed satellite-buoy differences allows us to analyze the origins of the main algorithmic errors observed in the SEVIRI field of view: a negative bias in the inter-tropical zone, and a mid-latitude positive bias. We demonstrate how these errors are explained by the sensitivity of observed brightness temperatures to the vertical distribution of water vapour, propagated through the SST retrieval algorithm.