982 resultados para Second Step


Relevância:

60.00% 60.00%

Publicador:

Resumo:

A very simple model of a classical particle in a heat bath under the influence of external noise is studied. By means of a suitable hypothesis, the heat bath is reduced to an internal colored noise (OrnsteinUhlenbeck noise). In a second step, an external noise is coupled to the bath. The steady state probability distributions are obtained.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Anti-doping authorities have high expectations of the athlete steroidal passport (ASP) for anabolic-androgenic steroids misuse detection. However, it is still limited to the monitoring of known well-established compounds and might greatly benefit from the discovery of new relevant biomarkers candidates. In this context, steroidomics opens the way to the untargeted simultaneous evaluation of a high number of compounds. Analytical platforms associating the performance of ultra-high pressure liquid chromatography (UHPLC) and the high mass-resolving power of quadrupole time-of-flight (QTOF) mass spectrometers are particularly adapted for such purpose. An untargeted steroidomic approach was proposed to analyse urine samples from a clinical trial for the discovery of relevant biomarkers of testosterone undecanoate oral intake. Automatic peak detection was performed and a filter of reference steroid metabolites mass-to-charge ratio (m/z) values was applied to the raw data to ensure the selection of a subset of steroid-related features. Chemometric tools were applied for the filtering and the analysis of UHPLC-QTOF-MS(E) data. Time kinetics could be assessed with N-way projections to latent structures discriminant analysis (N-PLS-DA) and a detection window was confirmed. Orthogonal projections to latent structures discriminant analysis (O-PLS-DA) classification models were evaluated in a second step to assess the predictive power of both known metabolites and unknown compounds. A shared and unique structure plot (SUS-plot) analysis was performed to select the most promising unknown candidates and receiver operating characteristic (ROC) curves were computed to assess specificity criteria applied in routine doping control. This approach underlined the pertinence to monitor both glucuronide and sulphate steroid conjugates and include them in the athletes passport, while promising biomarkers were also highlighted.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

60.00% 60.00%

Publicador:

Resumo:

PURPOSE: To ascertain the prevalence of piercing among a nationally representative sample of adolescents; to assess whether having a piercing is a marker for risk behaviors; and to determine whether having more than one piercing is a cumulative marker for risk behaviors. METHODS: Data were drawn from a cross-sectional survey of a nationally representative sample of adolescents aged 16 to 20 years (N=7548). Controlling for background variables, pierced and non-pierced youth were compared on risk behaviors related to drug use, sexual behavior, and suicide. In a second step, adolescents having one piercing were compared with those having more than one. In both cases, statistically significant variables in the bivariate analysis were included in a logistic regression. Analyses were conducted separately by gender. RESULTS: Overall, 20.2% of our sample had a piercing (excluding earlobes), and it was significantly more prevalent among females than among males (33.8% vs. 7.4%; P<.001). In the bivariate analysis, all risk behaviors were significantly associated with having a piercing, and most of them remained significant in the multivariate analysis. One third of pierced subjects had more than one piercing, with no gender difference in prevalence. In the multivariate analysis, females with more than one piercing were more likely to have had multiple partners and to use cannabis, while no differences were noted for males. CONCLUSIONS: Body piercing is becoming popular among Swiss adolescents, especially females. Having a body piercing seems to be a risk marker for risk behaviors. Moreover, having multiple piercings is a cumulative risk marker for females.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Debris flows are among the most dangerous processes in mountainous areas due to their rapid rate of movement and long runout zone. Sudden and rather unexpected impacts produce not only damages to buildings and infrastructure but also threaten human lives. Medium- to regional-scale susceptibility analyses allow the identification of the most endangered areas and suggest where further detailed studies have to be carried out. Since data availability for larger regions is mostly the key limiting factor, empirical models with low data requirements are suitable for first overviews. In this study a susceptibility analysis was carried out for the Barcelonnette Basin, situated in the southern French Alps. By means of a methodology based on empirical rules for source identification and the empirical angle of reach concept for the 2-D runout computation, a worst-case scenario was first modelled. In a second step, scenarios for high, medium and low frequency events were developed. A comparison with the footprints of a few mapped events indicates reasonable results but suggests a high dependency on the quality of the digital elevation model. This fact emphasises the need for a careful interpretation of the results while remaining conscious of the inherent assumptions of the model used and quality of the input data.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce travail de recherche dresse un panorama de l'état du développement des pratiques d'agriculture urbaine en Suisse et analyse le potentiel que celles-ci pourraient y développer, compte tenu des particularités du contexte national. La démarche adoptée suit une logique allant du général au particulier, de la théorie à la pratique, du descriptif vers l'analytique. Dans un premier temps, l'agriculture urbaine est abordée sous un angle conceptuel, comprenant un retour historique sur la relation ville-campagne et sur l'apparition récente du terme d'agriculture urbaine, un tour d'horizon de la littérature sur le sujet, une revue de ses diverses approches scientifiques et la circonscription des enjeux de sa définition. Dans un deuxième temps, l'agriculture urbaine est envisagée sous sa forme pratique, en Suisse comme à l'étranger. En ressort un inventaire étendu de ses différents types de mises en application, auquel correspond un panel d'atouts identifiés selon les trois versants du développement durable : social, écologique et économique. En troisième lieu les spécificités du contexte helvétique sont étudiées afin de comprendre quel est le cadre dans lequel le potentiel de l'agriculture urbaine pourrait se développer. Finalement, ce sont deux cas concrets d'agriculture urbaine qui sont analysés et évalués dans les détails, selon l'approche dite des régimes institutionnels des ressources naturelles (RIRN): le « plantage » lausannois du quartier de la Bourdonnette et le Stadiongarten dans le quartier Kreis 5 à Zurich. Au fil de cette recherche, il apparaît que l'agriculture urbaine révèle toute une série d'avantages en termes de développement durable, alors même que les villes suisses sont unanimement reconnues comme présentant un déficit dans ce domaine. De même, malgré les bienfaits importants que présentent ses diverses pratiques, l'agriculture urbaine reste encore très peu répandue en Suisse, le concept lui-même n'apparaissant que très rarement dans le discours des pouvoirs publics. Le principal frein à l'agriculture en ville est identifié comme étant le manque d'espace disponible dans les agglomérations, contrainte pourtant largement surmontable en y regardant de plus près. De par sa configuration topographique, le territoire suisse est particulièrement sujet à une étroite proximité entre espaces urbains et étendues agricoles, accroissant de ce fait la problématique de l'étalement urbain et du mitage du paysage. Parmi les enjeux de la lutte contre ces phénomènes concomitants, l'agriculture urbaine aurait un rôle important à jouer. En conclusion, une série de recommandations sont proposées afin que les projets d'agriculture urbaine puissent se développer et perdurer en Suisse. Abstract : This research paper provides an overview of the state of development of urban agriculture practices in Switzerland. It analyzes their potential of expansion while taking into account the particularities of the national context. The method follows a general to particular, theory to practice and descriptive to analytical reasoning. Firstly, urban agriculture is approached through a conceptual view, including a historical overview of the relationship between town and country and of the recent appearance of the term "urban agriculture". An outline of the literature on the subject, an examination of its various scientific approaches and riding issues of its definition are elaborated as well. In a second step, urban agriculture is considered in its practical form, both in Switzerland and abroad. From this we created an extensive inventory of various types of implementations which corresponds to a panel of assets identified according to the three aspects of sustainable development: social, ecology and economics. Thirdly the specificities of Swiss context are studied in order to understand the frame in which the potential of urban agriculture could be developed. Finally, two case studies of urban agriculture are analyzed and evaluated in detail, according to the so-called institutional regimes of natural resources (RIRN) approach: the "plantage" of the Bourdonnette neighborhood in Lausanne and the "Stadiongarten" in the Kreis 5 neighborhood in Zurich. Throughout this research, urban agriculture reveals a number of advantages in terms of sustainable development, even though the Swiss cities are unanimously recognized as having a deficit in this area. As well, despite the significant benefits that are its various practices, urban agriculture is still very uncommon in Switzerland, the concept itself appearing only rarely in public debates. The main obstacle to city agriculture is identified as the lack of available space in urban areas, however this constraint can easily be surpassed. By its topographical configuration, Switzerland is particularly prone to a close proximity between urban and agricultural spaces, thereby increasing the problems of urban sprawl. Among the stakes in the struggle against these interrelated phenomena, urban agriculture could play an important role. In conclusion, a series of recommendations are proposed so that urban agriculture projects can grow and persist in Switzerland.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Robust estimators for accelerated failure time models with asymmetric (or symmetric) error distribution and censored observations are proposed. It is assumed that the error model belongs to a log-location-scale family of distributions and that the mean response is the parameter of interest. Since scale is a main component of mean, scale is not treated as a nuisance parameter. A three steps procedure is proposed. In the first step, an initial high breakdown point S estimate is computed. In the second step, observations that are unlikely under the estimated model are rejected or down weighted. Finally, a weighted maximum likelihood estimate is computed. To define the estimates, functions of censored residuals are replaced by their estimated conditional expectation given that the response is larger than the observed censored value. The rejection rule in the second step is based on an adaptive cut-off that, asymptotically, does not reject any observation when the data are generat ed according to the model. Therefore, the final estimate attains full efficiency at the model, with respect to the maximum likelihood estimate, while maintaining the breakdown point of the initial estimator. Asymptotic results are provided. The new procedure is evaluated with the help of Monte Carlo simulations. Two examples with real data are discussed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This article describes the application of a recently developed general unknown screening (GUS) strategy based on LC coupled to a hybrid linear IT-triple quadrupole mass spectrometer (LC-MS/MS-LIT) for the simultaneous detection and identification of drug metabolites following in vitro incubation with human liver microsomes. The histamine H1 receptor antagonist loratadine was chosen as a model compound to demonstrate the interest of such approach, because of its previously described complex and extensive metabolism. Detection and mass spectral characterization were based on data-dependent acquisition, switching between a survey scan acquired in the ion-trapping Q3 scan mode with dynamic subtraction of background noise, and a dependent scan in the ion-trapping product ion scan mode of automatically selected parent ions. In addition, the MS(3) mode was used in a second step to confirm the structure of a few fragment ions. The sensitivity of the ion-trapping modes combined with the selectivity of the triple quadrupole modes allowed, with only one injection, the detection and identification of 17 phase I metabolites of loratadine. The GUS procedure used in this study may be applicable as a generic technique for the characterization of drug metabolites after in vitro incubation, as well as probably in vivo experiments.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Little is known about the health of ambulance personnel, especially in Switzerland. This lack of knowledge is particularly striking in the specific field of occupational health. This study aims to identify and better understand protective and risk factors affecting the health of ambulance personnel. Both mental and physical health are considered. The approach used comprised two steps. The first step began in July 2008 and consisted in a qualitative study of real work activities performed by ambulance crews involved in pre-hospital emergency interventions. Researchers shadowed ambulance personnel for the duration of their entire work shift, in average for one week. The paper-pen technique was used to note dialogues, interactions, postural aspects, etc. When the situation allowed it, interventions were filmed. Some selected video sequences were used as a support for selfconfrontation interviews. Observations were performed by three researchers and took place in eleven services, for a total of 416 hours of observations (including 72 interventions + waiting time). Analysis, conducted by a multidisciplinary team (an ergonomist, an occupational therapist and a health psychologist), focused on individual and collective strategies used by ambulance personnel to protect their health. The second step, which is currently ongoing, aims to assess global health of ambulance personnel. A questionnaire is used to gather information about musculoskeletal complaints (Nordic questionnaire), mental health (GHQ-12), stress (Effort-Reward imbalance questionnaire), strategies implemented to cope with stress (Brief COPE), and working conditions. Specific items on strategies were developed based on observational data. It will be sent to all ambulance personnel employed in the French-speaking part of Switzerland. Preliminary analyses show different types of strategies used by ambulance personnel to preserve their health. These strategies involve postural aspects (e.g. use doorframe as a support to ease delicate manipulations), work environment adaptations (e.g. move furniture to avoid awkward postures), coping strategies (e.g. humor), as well as organisational (e.g. formal and informal debriefing) and collective (e.g. cooperation) mechanisms. In-depth analysis is still ongoing. However, patient safety and comfort, work environment and available resources appear to influence the choice of strategies ambulance personnel use. As far as possible, the strategies identified will be transformed into educational materials for professional ambulance personnel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The model plant Arabidopsis thaliana was studied for the search of new metabolites involved in wound signalling. Diverse LC approaches were considered in terms of efficiency and analysis time and a 7-min gradient on a UPLC-TOF-MS system with a short column was chosen for metabolite fingerprinting. This screening step was designed to allow the comparison of a high number of samples over a wide range of time points after stress induction in positive and negative ionisation modes. Thanks to data treatment, clear discrimination was obtained, providing lists of potential stress-induced ions. In a second step, the fingerprinting conditions were transferred to longer column, providing a higher peak capacity able to demonstrate the presence of isomers among the highlighted compounds.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abstract The amygdala is a group of nuclei in the temporal lobe of the brain that plays a crucial role in anxiety and fear behavior. Sensory information converges in the basolateral and lateral nuclei of the amygdala, which have been the first regions in the brain where the acquisition of new (fear) memories has been associated with long term changes in synaptic transmission. These nuclei, in turn, project to the central nucleus of the amygdala. The central amygdala, through its extensive projections to numerous nuclei in the midbrain and brainstem, plays a pivotal role in the orchestration of the rapid autonomic and endocrine fear responses. In the central amygdala a large number of neuropeptides and receptors is expressed, among which high levels of vasopressin and oxytocin receptors. Local injections of these peptides into the amygdala modulate several aspects of the autonomic fear reaction. Interestingly, their effects are opposing: vasopressin tends to enhance the fear reactions, whereas oxytocin has anxiolytic effects. In order to investigate the neurophysiological mechanisms that could underlie this opposing modulation of the fear behavior, we studied the effects of vasopressin and oxytocin on the neuronal activity in an acute brain slice preparation of the rat central amygdala. We first assessed the effects of vasopressin and oxytocin on the spontaneous activity of central amygdala neurons. Extracellular single unit recordings revealed two major populations of neurons: a majority of neurons was excited by vasopressin and inhibited by oxytocin, whereas other neurons were only excited by oxytocin receptor activation. The inhibitory effect of oxytocin could be reduced by the block of GABAergic transmission, whereas the excitatory effects of vasopressin and oxytocin were not affected. In a second step we identified the cellular mechanisms for the excitatory effects of both peptides as well as the morphological and biochemical mechanisms underlying the opposing effects, by using sharp electrode recordings together with intracellular labelings. We revealed that oxytocin-excited neurons are localized in the lateral part (CeL) whereas vasopressin excited cells are found in the medial part of the central amygdala (CeM). The tracing of the neuronal morphology showed that the axon collaterals of the oxytocin-excited neurons project from the CeL, far into the CeM. Combined immunohistochemical stainings indicated that these projections are GABAergic. In the third set of experiments we investigated the synaptic interactions between the two identified cell populations. Whole-cell patch-clamp recordings in the CeM revealed that the inhibitory effect of oxytocin was caused by the massive increase of inhibitory GABAergic currents, which was induced by the activation of CeL neurons. Finally, the effects of vasopressin and oxytocin on evoked activity were investigated. We found on the one hand, that the probability of evoking action potentials in the CeM by stimulating the basolateral amygdala afferents was enhanced under vasopressin, whereas it decreased under oxytocin. On the other hand, the impact of cortical afferents stimulation on the CeL neurons was enhanced by oxytocin application. Taken together, these findings have allowed us to develop a model, in which the opposing behavioral effects of vasopressin and oxytocin are caused by a selective activation of two distinct populations of neurons in the GABAergic network of the central amygdala. Our model could help to develop new anxiolytic treatments, which modulate simultaneously both receptor systems. By acting on a GABAergic network, such treatments can further be tuned by combinations with classical benzodiazepines. Résumé: L'amygdale est un groupe de noyaux cérébraux localisés dans le lobe temporal. Elle joue un rôle essentiel dans les comportements liés à la peur et l'anxiété. L'information issue des aires sensorielles converge vers les noyaux amygdaliens latéraux et basolatéraux, qui sont les projections vers différents noyaux du tronc cérébral et de l'hypothalamus, joue un rôle clef premières régions dans lesquelles il a été démontré que l'acquisition d'une nouvelle mémoire (de peur) était associée à des changements à long terme de la transmission synaptique. Ces noyaux envoient leurs projections sur l'amygdale centrale, qui à travers ses propres dans l'orchestration des réponses autonomes et endocrines de peur. Le contrôle de l'activité neuronale dans l'amygdale centrale module fortement la réaction de peur. Ainsi, un grand nombre de neuropeptides sont spécifiquement exprimés dans l'amygdale centrale et un bon nombre d'entre eux interfère dans la réaction de peur et d'anxiété. Chez les rats, une forte concentration de récepteurs à l'ocytocine et à la vasopressine est exprimée dans le noyau central, et l'injection de ces peptides dans l'amygdale influence différents aspects de la réaction viscérale associée à la peur. Il est intéressant de constater que ces peptides exercent des effets opposés. Ainsi, la vasopressine augmente la réaction de peur alors que l'ocytocine a un effet anxiolytique. Afin d'investiguer les mécanismes neurophysiologiques responsables de ces effets opposés, nous avons étudié l'effet de la vasopressine et de l'ocytocine sur l'activité neuronale de préparations de tranches de cerveau de rats contenant entre autres de l'amygdale centrale. Tout d'abord, notre intérêt s'est porté sur les effets de ces deux neuropeptides sur l'activité spontanée dans l'amygdale centrale. Des enregistrements extracellulaires ont révélé différentes populations de neurones ; une majorité était excitée par la vasopressine et inhibée par l'ocytocine ; d'autres étaient seulement excités par l'activation du récepteur à l'ocytocine. L'effet inhibiteur de l'ocytocine a pu être réduit par l'inhibition de la transmission GABAergique, alors que ses effets excitateurs n'étaient pas affectés. Dans un deuxième temps, nous avons identifié les mécanismes cellulaires responsables de l'effet excitateur de ces deux peptides et analysé les caractéristiques morphologiques et biochimiques des neurones affectés. Des enregistrements intracellulaires ont permis de localiser les neurones excités par l'ocytocine dans la partie latérale de l'amygdale centrale (CeL), et ceux excités par la vasopressine dans sa partie médiale (CeM). Le traçage morphologique des neurones a révélé que les collatérales axonales des cellules excitées par l'ocytocine projetaient du CeL loin dans le CeM. De plus, des colorations immuno-histochimiques ont révélé que ces projections étaient GABAergiques. Dans un troisième temps, nous avons étudié les interactions synaptiques entre ces deux populations de cellules. Les enregistrements en whole-cell patch-clamp dans le CeM ont démontré que les effets inhibiteurs de l'ocytocine résultaient de l'augmentation massive des courants GABAergique résultant de l'activation des neurones dans le CeL. Finalement, les effets de l'ocytocine et de la vasopressine sur l'activité évoquée ont été étudiés. Nous avons pu montrer que la probabilité d'évoquer un potentiel d'action dans le CeM, par stimulation de l'amygdale basolatérale, était augmentée sous l'effet de la vasopressine et diminuée sous l'action de l'ocytocine. Par contre, l'impact de la stimulation des afférences corticales sur les neurones du CeL était augmenté par l'application de l'ocytocine. L'ensemble de ces résultats nous a permis de développer un modèle dans lequel les effets comportementaux opposés de la vasopressine et de l'ocytocine sont causés par une activation sélective des deux différentes populations de neurones dans un réseau GABAergique. Un tel modèle pourrait mener au développement de nouveaux traitements anxiolytiques en modulant l'activité des deux récepteurs simultanément. En agissant sur un réseau GABAergique, les effets d'un tel traitement pourraient être rendus encore plus sélectifs en association avec des benzodiazépines classiques.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Raman spectroscopy combined with chemometrics has recently become a widespread technique for the analysis of pharmaceutical solid forms. The application presented in this paper is the investigation of counterfeit medicines. This increasingly serious issue involves networks that are an integral part of industrialized organized crime. Efficient analytical tools are consequently required to fight against it. Quick and reliable authentication means are needed to allow the deployment of measures from the company and the authorities. For this purpose a method in two steps has been implemented here. The first step enables the identification of pharmaceutical tablets and capsules and the detection of their counterfeits. A nonlinear classification method, the Support Vector Machines (SVM), is computed together with a correlation with the database and the detection of Active Pharmaceutical Ingredient (API) peaks in the suspect product. If a counterfeit is detected, the second step allows its chemical profiling among former counterfeits in a forensic intelligence perspective. For this second step a classification based on Principal Component Analysis (PCA) and correlation distance measurements is applied to the Raman spectra of the counterfeits.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Perinteisten kaarihitsausmenetelmien suhteellisen suuri lämmöntuonti aiheuttaa huomattavia muodonmuutoksia laivan rungon valmistusprosessin alkuvaiheessa. Muodonmuutosten seurauksena rakenteiden mitta- ja muototarkkuus heikkenee, mikä lisää oikaisu- ja sovitustyötä myöhemmissä työvaiheissa. Hitsausmuodonmuutoksia voidaan vähentää siirtymällä käyttämään laser-MAG-hybridihitsausta, jossa lämmöntuonti on merkittävästi pienempi kuin kaarihitsauksessa. Näin kyetään oleellisesti leikkaamaan oikaisu- ja sovitustyöstä syntyviä kustannuksia. Tämän diplomityön tavoitteena oli kehittää tuotantovalmiiksi kuitulaser- ja MAG-hitsauksen yhdistelmäprosessi Aker Yards Oy:n Turun telakalla loppuvuoden 2006 aikana. Hitsauslaitteiston asennus oli valmistunut kesäkuussa 2006, minkä jälkeen aloitettiin luokituslaitoksen hyväksymän koeohjelman hitsaukset. Käyttöönotto suunnitelmaan sisältyvä koehitsausohjelma oli laadittu Det Norske Veritaksen julkaisemaa ohjetta (Guidelines no. 19) mukaillen. Ensimmäiseksi määritettiin hitsauskokeiden avulla prosessille laadun ja tehokkuuden suhteen optimaalinen railogeometria. Seuraavaksi optimoitiin prosessin hitsausparametrit 6 mm:n aineenpaksuudelle hyödyntäen Taguchi-koesuunnittelumenetelmää. Tämän jälkeen optimiparametreilla hitsattiin koekappale väsytyskokeisiin, jotka suoritettiin Teknillisen korkeakoulun laivalaboratoriossa. Väsytyskoetulokset täyttivät luokituslaitoksen vaatimukset. Myös hitsauksen menetelmäkoe suoritettiin hyväksytetysti. Viimeinen koeohjelman mukainen hitsauskoesarja tehtiin prosessiparametrien sallittujen vaihtelurajojen määrittämiseksi. Diplomityön tavoite täyttyi joulukuussa 2006, jolloin 'laivan kansipaneeli hitsattiin ensimmäistä kertaa uudella hitsausprosessilla. Hitsauksen laatu korreloi hyvin menetelmäkokeen tulosten kanssa ¿ hitsit olivat tasalaatuisia ja ne täyttivät B-luokan vaatimukset.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Diplomityössä käsitellään pyöräkuormainkaivureita valmistavan yrityksen konepajatuotannon kehittämistä aihiovalmistuksen, hitsauksen ja koneistuksen osalta. Pääpaino kehittämistoimissa on hitsauksessa. Lähtökohtana tuotannonkehittämisen tarpeelle ovat tuotannon kasvu, kustannustehokkuuden lisääminen sekä pula ammattitaitoisesta työvoimasta. Diplomityössä selvitetään yrityksen vanhan konekannan päivittämismahdollisuuksia ja säästöjen hakemista tehokkaampia valmistusmenetelmiä käyttöönottamalla. Pohjatyönä tulevaisuuden tuotannon tehostamiselle selvitettiin nykyiset valmistuskustannukset. Työajankäytön historiatiedot löytyivät yrityksen tietojärjestelmästä, joita tarkennettiinkentältä kerätyin tiedoin. Myös koneiden käyttökustannukset tuntihinnat eri työvaiheille. selvitettiin ja näin saatiin määritettyä Lännen Tractors Oy:lle löytyi hitsaavassa tuotannossa kehitystoimenpiteitä, mitkä tekemällä voidaan tuotantoa tehostaa ilman investointeja. Tuotannon kehittäminen jaettiin kahteen vaiheeseen: 1. vaihe, missä ei investoida vaan keskitytään nykyisten menetelmien kehittämiseen ja vanhojen koneiden tehokkaampaan hyödyntämiseen ja 2.vaihe, missä tarkastellaan mahdollisten investointien kannattavuutta sekä selvitetään alihankinnan mandollisuutta. Tuotannon tehostamisen 1. vaiheen toimenpiteillä saadaan hitsauskustannuksia pienennettyä jopa 20 %. 2. vaiheen oman tuotannon tehostamiseksi koneistuksen eri tehtiin investointilaskelmat robottihitsaussolun ja vaihtoehtojen takaisinmaksuajasta sekä sisäisestä korkokannasta. Uuden robottihitsaussolun takaisinmaksuaika on n. 3 vuotta. Näiden laskelmien perusteella mahdollisuudet valmistaa komponentteja taloudellisesti. investoinneilla voidaan pyöräkuormainkaivureiden saavuttaa hitsattuja

Relevância:

60.00% 60.00%

Publicador:

Resumo:

BACKGROUND: Radiofrequency (RF) ablation is used to obtain local control of unresectable tumors in liver, kidney, prostate, and other organs. Accurate data on expected size and geometry of coagulation zones are essential for physicians to prevent collateral damage and local tumor recurrence. The aim of this study was to develop a standardized terminology to describe the size and geometry of these zones for experimental and clinical RF. METHODS: In a first step, the essential geometric parameters to accurately describe the coagulation zones and the spatial relationship between the coagulation zones and the electrodes were defined. In a second step, standard terms were assigned to each parameter. RESULTS: The proposed terms for single-electrode RF ablation include axial diameter, front margin, coagulation center, maximal and minimal radius, maximal and minimal transverse diameter, ellipticity index, and regularity index. In addition a subjective description of the general shape and regularity is recommended. CONCLUSIONS: Adoption of the proposed standardized description method may help to fill in the many gaps in our current knowledge of the size and geometry of RF coagulation zones.