960 resultados para Misspecification, Sign restrictions, Shock identification, Model validation.
Resumo:
Bien que les activités où la compétence est un enjeu (p. ex. : problème académique) prennent souvent place dans des contextes interpersonnels (p. ex. : classe), hiérarchiques (p. ex. : enseignant-e/élèves), et spécifiques en termes de normes et de valeurs (p. ex. : culture), l'étude des buts de performance-le désir de se montrer compétent-e relativement à autrui-a le plus souvent été conduite au seul niveau intrapersonnel. S'appuyant sur le modèle transactionnel du stress et du coping, le modèle circumplexe des comportements interpersonnels, ainsi que sur la théorie de l'élaboration du conflit, la première partie de cette thèse révèle les conséquences interpersonnelles des buts de performance sur la régulation d'un comportement spécifique, à savoir le conflit sociocognitif (c.-à-d., une situation de confrontation avec un intéractant en désaccord) : les buts de performance-approche-le désir d'être meilleur-e qu'autrui-prédisent une régulation du conflit fortement agentique (dominante), soit la validation de son point de vue au détriment de celui de l'intéractant (que nous désignons régulation compétitive) ; alors que les buts de performance-évitement-le désir de ne pas être moins bon-ne qu'autrui-prédisent une régulation du conflit faiblement agentique (soumise), soit l'invalidation de son point de vue au bénéfice de celui de l'intéractant (que nous désignons régulation protective). De plus, les effets susmentionnés augmentent à mesure que l'intéractant est présenté comme supérieurement (vs. similairement) compétent. S'appuyant sur la littérature sur les structures de buts de groupe, et celle sur la socialisation des valeurs, la seconde partie de cette thèse révèle les antécédents interpersonnels des buts de performance, et plus spécifiquement le rôle du superviseur dans la socialisation des buts de performance : les buts de performance-approche d'un superviseur sont positivement associés avec l'émergence au cours du temps des buts de performance-approche de ses subordonnés (particulièrement lorsqu'ils se perçoivent comme compétents) et celle de leurs buts de performance-évitement (particulièrement lorsqu'ils se perçoivent comme incompétents). En outre, ce phénomène consistant en un processus de socialisation, les effets susmentionnés augmentent lorsque l'identification à l'endogroupe des subordonnées augmente, et lorsque l'adhésion aux valeurs culturelles occidentales dominantes (c.-à-d., rehaussement de soi) du superviseur augmente. Dans leur ensemble, ces résultats soulignent la nécessité d'étudier les buts dans leur plenum social, autrement dit, en adoptant une perspective interpersonnelle (c.-à-d., étudier les effets des buts entre les individus), positionnelle (c.-à-d., entre des individus de différentes positions sociales), et idéologique (c.- à-d., entre des individus se conformant à des normes spécifiques et adhérant à des valeurs spécifiques). -- Although competence-relevant activities (e.g., solving an academic problem) are often embedded in interpersonal (e.g., classroom), hierarchical (e.g., teacher/pupils), and norm-/value-specific (e.g., culture) settings, the study of performance goals-the desire to demonstrate competence relative to others-has mostly been conducted at the intrapersonal level alone. Drawing on the transactional model of stress and coping, the circumplex model of interpersonal behaviors, as well as on the conflict elaboration theory, the first part of this thesis reveals the interpersonal consequences of performance goals on the regulation of a specific behavior, namely socio-cognitive conflict (i.e., a situation of confrontation with a disagreeing interactant): Performance-approach goals-the desire to outperform others- predicted a highly agentic (dominant) conflict regulation, that is, the validation of one's point of view at the expense of that of the interactant (which we labeled competitive regulation); whereas performance-avoidance goals-the desire not to be outperformed by others- predicted a poorly agentic (submissive) conflict regulation, that is, the invalidation of one's point of view to the benefit of that of the interactant (which we labeled protective regulation). Furthermore, both the aforementioned effects were found to increase when the interactant was presented as being superiorly (vs. equally) in competence. Drawing on the literature on group goal structure, as well as on research on socialization of supervisors-based values, the second part of this thesis reveals the interpersonal antecedents of performance-based goals endorsement, focusing-more specifically-on the role of group-supervisors in performance goals socialization: Supervisor's performance-approach goals were positively associated with the emergence over time of subordinates' performance-approach (especially when perceiving themselves as competent) and -avoidance goals (especially when perceiving themselves as incompetent). Furthermore, providing evidence that this phenomenon essentially reflects a socialization process, both the aforementioned effects were found to increase as subordinates' in-group identification increased, and as supervisors' adherence to dominant Western values (i.e., self-enhancement values) increased. Taken together, these results advocate the need to study performance goals in their social plenum, that is, adopting an interpersonal (i.e., studying the effects of goals between individuals), positional (i.e., between individuals from different social positions), and ideological (i.e., between individuals following specific norms and endorsing specific values) perspective.
Resumo:
Identification and relative quantification of hundreds to thousands of proteins within complex biological samples have become realistic with the emergence of stable isotope labeling in combination with high throughput mass spectrometry. However, all current chemical approaches target a single amino acid functionality (most often lysine or cysteine) despite the fact that addressing two or more amino acid side chains would drastically increase quantifiable information as shown by in silico analysis in this study. Although the combination of existing approaches, e.g. ICAT with isotope-coded protein labeling, is analytically feasible, it implies high costs, and the combined application of two different chemistries (kits) may not be straightforward. Therefore, we describe here the development and validation of a new stable isotope-based quantitative proteomics approach, termed aniline benzoic acid labeling (ANIBAL), using a twin chemistry approach targeting two frequent amino acid functionalities, the carboxylic and amino groups. Two simple and inexpensive reagents, aniline and benzoic acid, in their (12)C and (13)C form with convenient mass peak spacing (6 Da) and without chromatographic discrimination or modification in fragmentation behavior, are used to modify carboxylic and amino groups at the protein level, resulting in an identical peptide bond-linked benzoyl modification for both reactions. The ANIBAL chemistry is simple and straightforward and is the first method that uses a (13)C-reagent for a general stable isotope labeling approach of carboxylic groups. In silico as well as in vitro analyses clearly revealed the increase in available quantifiable information using such a twin approach. ANIBAL was validated by means of model peptides and proteins with regard to the quality of the chemistry as well as the ionization behavior of the derivatized peptides. A milk fraction was used for dynamic range assessment of protein quantification, and a bacterial lysate was used for the evaluation of relative protein quantification in a complex sample in two different biological states
Resumo:
We report on a series of 514 consecutive diagnoses of skeletal dysplasia made over an 8-year period at a tertiary hospital in Kerala, India. The most common diagnostic groups were dysostosis multiplex group (n = 73) followed by FGFR3 (n = 49) and osteogenesis imperfecta and decreased bone density group (n = 41). Molecular confirmation was obtained in 109 cases. Clinical and radiographic evaluation was obtained in close diagnostic collaboration with expert groups abroad through Internet communication for difficult cases. This has allowed for targeted biochemical and molecular studies leading to the correct identification of rare or novel conditions, which has not only helped affected families by allowing for improved genetic counseling and prenatal diagnosis but also resulted in several scientific contributions. We conclude that (1) the spectrum of genetic bone disease in Kerala, India, is similar to that of other parts of the world, but recessive entities may be more frequent because of widespread consanguinity; (2) prenatal detection of skeletal dysplasias remains relatively rare because of limited access to expert prenatal ultrasound facilities; (3) because of the low accessibility to molecular tests, precise clinical-radiographic phenotyping remains the mainstay of diagnosis and counseling and of gatekeeping to efficient laboratory testing; (4) good phenotyping allows, a significant contribution to the recognition and characterization of novel entities. We suggest that the tight collaboration between a local reference center with dedicated personnel and expert diagnostic networks may be a proficient model to bring current diagnostics to developing countries. © 2014 Wiley Periodicals, Inc.
Resumo:
The mean-field theory of a spin glass with a specific form of nearest- and next-nearest-neighbor interactions is investigated. Depending on the sign of the interaction matrix chosen we find either the continuous replica symmetry breaking seen in the Sherrington-Kirkpartick model or a one-step solution similar to that found in structural glasses. Our results are confirmed by numerical simulations and the link between the type of spin-glass behavior and the density of eigenvalues of the interaction matrix is discussed.
Resumo:
Objectives: The AMS 800 is the current artifi cial urinary sphincter (AUS) forincontinence due to intrinsic sphincter defi ciency. Despite good clinical results,technical failures inherent to the hydraulic mechanism or urethral ischemicinjury contribute to revisions up to 60%. We are developing an electronic AUS,called ARTUS to overcome the rigors of AMS. The objective of this study wasto evaluate the technical effi cacy and tissue tolerance of the ARTUS systemin an animal model.Methods: The ARTUS is composed by three parts: thecontractile unit, a series of rings and an integrated microprocessor. The contractileunit is made of Nitinol fi bers. The rings are placed around the urethrato control the fl ow of urine by squeezing the urethra. They work in a sequentialalternative mode and are controlled by a microprocessor. In the fi rst phase athree-rings device was used while in the second phase a two-rings ARTUS wasused. The device was implanted in 14 sheep divided in two groups of six andeight animals for study purpose. The fi rst group aimed at bladder leak pointpressure (BLPP) measurement and validation of the animal model; the secondgroup aimed at verifying midterm tissue tolerance by explants at twelve weeks.General animal tolerance was also evaluated.Results: The ARTUS systemimplantation was uneventful. When the system was activated, the BLPP wasmeasured at 1.038 ± 0.044 bar (mean ± SD). Urethral tissue analysis did notshow signifi cant morphological changes. No infection and no sign of discomfortwere noted in animals at 12 weeks.Conclusions: The ARTUS proved to beeffective in continence achievement in this study. Histological results supportour idea that a sequential alternative mode can avoid urethral atrophy andischemia. Further technical developments are needed to verify long-termoutcome and permit human use.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
We consider a Potts model diluted by fully frustrated Ising spins. The model corresponds to a fully frustrated Potts model with variables having an integer absolute value and a sign. This model presents precursor phenomena of a glass transition in the high-temperature region. We show that the onset of these phenomena can be related to a thermodynamic transition. Furthermore, this transition can be mapped onto a percolation transition. We numerically study the phase diagram in two dimensions (2D) for this model with frustration and without disorder and we compare it to the phase diagram of (i) the model with frustration and disorder and (ii) the ferromagnetic model. Introducing a parameter that connects the three models, we generalize the exact expression of the ferromagnetic Potts transition temperature in 2D to the other cases. Finally, we estimate the dynamic critical exponents related to the Potts order parameter and to the energy.
Resumo:
The use of synthetic combinatorial peptide libraries in positional scanning format (PS-SCL) has emerged recently as an alternative approach for the identification of peptides recognized by T lymphocytes. The choice of both the PS-SCL used for screening experiments and the method used for data analysis are crucial for implementing this approach. With this aim, we tested the recognition of different PS-SCL by a tyrosinase 368-376-specific CTL clone and analyzed the data obtained with a recently developed biometric data analysis based on a model of independent and additive contribution of individual amino acids to peptide antigen recognition. Mixtures defined with amino acids present at the corresponding positions in the native sequence were among the most active for all of the libraries. Somewhat surprisingly, a higher number of native amino acids were identifiable by using amidated COOH-terminal rather than free COOH-terminal PS-SCL. Also, our data clearly indicate that when using PS-SCL longer than optimal, frame shifts occur frequently and should be taken into account. Biometric analysis of the data obtained with the amidated COOH-terminal nonapeptide library allowed the identification of the native ligand as the sequence with the highest score in a public human protein database. However, the adequacy of the PS-SCL data for the identification for the peptide ligand varied depending on the PS-SCL used. Altogether these results provide insight into the potential of PS-SCL for the identification of CTL-defined tumor-derived antigenic sequences and may significantly implement our ability to interpret the results of these analyses.
Resumo:
ABSTRACT Trichoderma species are non-pathogenic microorganisms that protect against fungal diseases and contribute to increased crop yields. However, not all Trichoderma species have the same effects on crop or a pathogen, whereby the characterization and identification of strains at the species level is the first step in the use of a microorganism. The aim of this study was the identification – at species level – of five strains of Trichoderma isolated from soil samples obtained from garlic and onion fields located in Costa Rica, through the analysis of the ITS1, 5.8S, and ITS2 ribosomal RNA regions; as well as the determination of their individual antagonistic ability over S. cepivorum Berkeley. In order to distinguish the strains, the amplified products were analyzed using MEGA v6.0 software, calculating the genetic distances through the Tamura-Nei model and building the phylogenetic tree using the Maximum Likelihood method. We established that the evaluated strains belonged to the species T. harzianum and T. asperellum; however it was not possible to identify one of the analyzed strains based on the species criterion. To evaluate their antagonistic ability, the dual culture technique, Bell’s scale, and the percentage inhibition of radial growth (PIRG) were used, evidencing that one of the T. asperellum isolates presented the best yields under standard, solid fermentation conditions.
Resumo:
Aim The jaguar, Panthera onca, is a species of global conservation concern. In Mexico, the northernmost part of its distribution range, its conservation status, is particularly critical, while its potential and actual distribution is poorly known. We propose an ensemble model (EM) of the potential distribution for the jaguar in Mexico and identify the priority areas for conservation.Location Mexico.Methods We generated our EM based on three presence-only methods (Ecological Niche Factor Analysis, Mahalanobis distance, Maxent) and considering environmental, biological and anthropogenic factors. We used this model to evaluate the efficacy of the existing Mexican protected areas (PAs), to evaluate the adequacy of the jaguar conservation units (JCUs) and to propose new areas that should be considered for conservation and management of the species in Mexico.Results Our results outline that 16% of Mexico (c. 312,000 km2) can be considered as suitable for the presence of the jaguar. Furthermore, 13% of the suitable areas are included in existing PAs and 14% are included in JCUs (Sanderson et al., 2002).Main conclusions Clearly much more should be carried out to establish a proactive conservation strategy. Based on our results, we propose here new jaguar conservation and management areas that are important for a nationwide conservation blueprint.
Resumo:
Recognition and identification processes for deceased persons. Determining the identity of deceased persons is a routine task performed essentially by police departments and forensic experts. This thesis highlights the processes necessary for the proper and transparent determination of the civil identities of deceased persons. The identity of a person is defined as the establishment of a link between that person ("the source") and information pertaining to the same individual ("identifiers"). Various identity forms could emerge, depending on the nature of the identifiers. There are two distinct types of identity, namely civil identity and biological identity. The paper examines four processes: identification by witnesses (the recognition process) and comparisons of fingerprints, dental data and DNA profiles (the identification processes). During the recognition process, the memory function is examined and helps to clarify circumstances that may give rise to errors. To make the process more rigorous, a body presentation procedure is proposed to investigators. Before examining the other processes, three general concepts specific to forensic science are considered with regard to the identification of a deceased person, namely, matter divisibility (Inman and Rudin), transfer (Locard) and uniqueness (Kirk). These concepts can be applied to the task at hand, although some require a slightly broader scope of application. A cross comparison of common forensic fields and the identification of deceased persons reveals certain differences, including 1 - reverse positioning of the source (i.e. the source is not sought from traces, but rather the identifiers are obtained from the source); 2 - the need for civil identity determination in addition to the individualisation stage; and 3 - a more restricted population (closed set), rather than an open one. For fingerprints, dental and DNA data, intravariability and intervariability are examined, as well as changes in these post mortem (PM) identifiers. Ante-mortem identifiers (AM) are located and AM-PM comparisons made. For DNA, it has been shown that direct identifiers (taken from a person whose civil identity has been alleged) tend to lead to determining civil identity whereas indirect identifiers (obtained from a close relative) direct towards a determination of biological identity. For each process, a Bayesian model is presented which includes sources of uncertainty deemed to be relevant. The results of the different processes combine to structure and summarise an overall outcome and a methodology. The modelling of dental data presents a specific difficulty with respect to intravariability, which in itself is not quantifiable. The concept of "validity" is, therefore, suggested as a possible solution to the problem. Validity uses various parameters that have an acknowledged impact on teeth intravariability. In cases where identifying deceased persons proves to be extremely difficult due to the limited discrimination of certain procedures, the use of a Bayesian approach is of great value in bringing a transparent and synthetic value. RESUME : Titre: Processus de reconnaissance et d'identification de personnes décédées. L'individualisation de personnes décédées est une tâche courante partagée principalement par des services de police, des odontologues et des laboratoires de génétique. L'objectif de cette recherche est de présenter des processus pour déterminer valablement, avec une incertitude maîtrisée, les identités civiles de personnes décédées. La notion d'identité est examinée en premier lieu. L'identité d'une personne est définie comme l'établissement d'un lien entre cette personne et des informations la concernant. Les informations en question sont désignées par le terme d'identifiants. Deux formes distinctes d'identité sont retenues: l'identité civile et l'identité biologique. Quatre processus principaux sont examinés: celui du témoignage et ceux impliquant les comparaisons d'empreintes digitales, de données dentaires et de profils d'ADN. Concernant le processus de reconnaissance, le mode de fonctionnement de la mémoire est examiné, démarche qui permet de désigner les paramètres pouvant conduire à des erreurs. Dans le but d'apporter un cadre rigoureux à ce processus, une procédure de présentation d'un corps est proposée à l'intention des enquêteurs. Avant d'entreprendre l'examen des autres processus, les concepts généraux propres aux domaines forensiques sont examinés sous l'angle particulier de l'identification de personnes décédées: la divisibilité de la matière (Inman et Rudin), le transfert (Locard) et l'unicité (Kirk). Il est constaté que ces concepts peuvent être appliqués, certains nécessitant toutefois un léger élargissement de leurs principes. Une comparaison croisée entre les domaines forensiques habituels et l'identification de personnes décédées montre des différences telles qu'un positionnement inversé de la source (la source n'est plus à rechercher en partant de traces, mais ce sont des identifiants qui sont recherchés en partant de la source), la nécessité de devoir déterminer une identité civile en plus de procéder à une individualisation ou encore une population d'intérêt limitée plutôt qu'ouverte. Pour les empreintes digitales, les dents et l'ADN, l'intra puis l'inter-variabilité sont examinées, de même que leurs modifications post-mortem (PM), la localisation des identifiants ante-mortem (AM) et les comparaisons AM-PM. Pour l'ADN, il est démontré que les identifiants directs (provenant de la personne dont l'identité civile est supposée) tendent à déterminer une identité civile alors que les identifiants indirects (provenant d'un proche parent) tendent à déterminer une identité biologique. Puis une synthèse des résultats provenant des différents processus est réalisée grâce à des modélisations bayesiennes. Pour chaque processus, une modélisation est présentée, modélisation intégrant les paramètres reconnus comme pertinents. À ce stade, une difficulté apparaît: celle de quantifier l'intra-variabilité dentaire pour laquelle il n'existe pas de règle précise. La solution préconisée est celle d'intégrer un concept de validité qui intègre divers paramètres ayant un impact connu sur l'intra-variabilité. La possibilité de formuler une valeur de synthèse par l'approche bayesienne s'avère d'une aide précieuse dans des cas très difficiles pour lesquels chacun des processus est limité en termes de potentiel discriminant.
Resumo:
Cette recherche s'applique aux témoins glaciaires des Chablais dans quatre de leurs dimensions : géopatrimoine, connaissance objective, inventaire de géosites et valorisation. Elle est organisée sur le canevas d'un processus de patrimonialisation auquel elle participe et qu'elle interroge à la fois. En 2009, débutait le projet 123 Chablais, pour une durée de quatre ans. Il concernait l'ensemble du territoire chablaisien, réparti sur deux pays (France et Suisse) et trois entités administratives (département de la Haute-Savoie, cantons de Vaud et du Valais). Ce projet, élaboré dans le cadre du programme Interreg IV France-Suisse, avait pour but de dynamiser le développement économique local en s'appuyant sur les patrimoines régionaux. Le géopatrimoine, identifié comme une de ces ressources, faisait donc l'objet de plusieurs actions, dont cette recherche. En parallèle, le Chablais haut-savoyard préparait sa candidature pour rejoindre l'European Geopark Network (EGN). Son intégration, effective dès 2012, a fait de ce territoire le cinquième géoparc français du réseau. Le Geopark du Chablais fonde son identité géologique sur l'eau et la glace, deux thématiques intimement liées aux témoins glaciaires. Dans ce contexte d'intérêt pour le géopatrimoine local et en particulier pour le patrimoine glaciaire, plusieurs missions ont été assignées à cette recherche qui devait à la fois améliorer la connaissance objective des témoins glaciaires, inventorier les géosites glaciaires et valoriser le patrimoine glaciaire. Le premier objectif de ce travail était d'acquérir une vision synthétique des témoins glaciaires. Il a nécessité une étape de synthèse bibliographique ainsi que sa spatialisation, afin d'identifier les lacunes de connaissance et la façon dont ce travail pouvait contribuer à les combler. Sur cette base, plusieurs méthodes ont été mises en oeuvre : cartographie géomorphologique, reconstitution des lignes d'équilibre glaciaires et datations de blocs erratiques à l'aide des isotopes cosmogéniques produits in situ. Les cartes géomorphologiques ont été élaborées en particulier dans les cirques et vallons glaciaires. Les datations cosmogéniques ont été concentrées sur deux stades du glacier du Rhône : le Last Local Glacial Maximum (LLGM) et le stade de Monthey. Au terme de cette étape, les spécificités du patrimoine glaciaire régional se sont révélées être 1) une grande diversité de formes et des liens étroits avec différents autres processus géomorphologiques ; 2) une appartenance des témoins glaciaires à dix grandes étapes de la déglaciation du bassin lémanique. Le second objectif était centré sur le processus d'inventaire des géosites glaciaires. Nous avons mis l'accent sur la sélection du géopatrimoine en développant une approche basée sur deux axes (temps et espace) identifiés dans le volet précédent et avons ainsi réalisé un inventaire à thèmes, composé de 32 géosites. La structure de l'inventaire a également été explorée de façon à intégrer des critères d'usage de ces géosites. Cette démarche, soutenue par une réflexion sur les valeurs attribuées au géopatrimoine et sur la façon d'évaluer ces valeurs, nous a permis de mettre en évidence le point de vue anthropo - et scientifico - centré qui prévaut nettement dans la recherche européenne sur le géopatrimoine. L'analyse des résultats de l'inventaire a fait apparaître quelques caractéristiques du patrimoine glaciaire chablaisien, discret, diversifié, et comportant deux spécificités exploitables dans le cadre d'une médiation scientifique : son statut de « berceau de la théorie glaciaire » et ses liens étroits avec des activités de la vie quotidienne, en tant que matière première, support de loisir ou facteur de risque. Cette recherche a débouché sur l'élaboration d'une exposition itinérante sur le patrimoine glaciaire des Chablais. Ce produit de valorisation géotouristique a été conçu pour sensibiliser la population locale à l'impact des glaciers sur son territoire. Il présente une série de sept cartes de stades glaciaires, encadrées par les deux mêmes thématiques, l'histoire de la connaissance glaciaire d'une part, les témoins glaciaires et la société, d'autre part. -- This research focuses on glacial witnesses in the Chablais area according to four dimensions : geoheritage, objective knowledge, inventory and promotion of geosites. It is organized on the model of an heritage's process which it participates and that it questions both. In 2009, the project 123 Chablais started for a period of four years. It covered the entire chablaisien territory spread over two countries and three administrative entities (département of Haute-Savoie, canton of Vaud, canton of Valais). This project, developed in the framework of the Interreg IV France-Switzerland program, aimed to boost the local development through regional heritage. The geoheritage identified as one of these resources, was therefore the subject of several actions, including this research. In parallel, the French Chablais was preparing its application to join the European Geopark Network (EGN). Its integration, effective since 2012, made of this area the fifth French Geopark of the network. The Chablais Geopark geological identity was based on water and ice, two themes closely linked to the glacial witnesses. In this context of interest for the regional geoheritage and especially for the glacial heritage, several missions have been assigned to this research which should improve objective knowledge of glacial witnesses, inventory and assess glacial geosites. The objective knowledge's component was to acquire a synthetic vision of the glacial witnesses. It required a first bibliography synthesis step in order to identify gaps in knowledge and how this work could help to fill them. On this basis, several methods have been implemented: geomorphological mapping, reconstruction of the equilibrium-line altitude and dating of glacial erratic blocks using cosmogenic isotopes produced in situ. Geomorphological maps have been developed especially in glacial cirques and valleys. Cosmogenic datings were concentrated on two stages of the Rhone glacier: the Last Local Glacial Maximum (LLGM) and « the stage of Monthey ». After this step, the specificities of the regional glacial heritage have emerged to us as 1) a wide variety of forms and links to various other geomorphological processes; 2) belonging of glacial witnesses to ten major glacial stages of Léman Lake's deglaciation. In the inventory of glacial geosites component we focused on the selection of geoheritage. We developed an approach based on two axes (time and space) identified in the preceding components. We obtained a thematic inventory, consisting of 32 geosites. The structure of the inventory was also explored in the aim to integrate use criteria of geosites. This approach, supported by a thought on the values attributed to the geoheritage and how to assess these values allowed us to highlight the point of view much anthropological - and scientific -centered prevailing in the European research on geoheritage. The analysis of the inventory's results revealed some characteristics of chablaisien glacial heritage, discrete, diverse, and with two features exploitable in the context of a scientific mediation: its status as « cradle of the glacial theory » and its close links with activities of daily life, as raw material, leisure support and risk factor. This research leads to the development of a traveling exhibition on the glacial heritage of the Chablais area. It presents a series of seven glacial stage's cards, framed by the two themes mentioned above: « history of glacial knowledge » and « glacial witnesses and society ».
Resumo:
In this work, a previously-developed, statistical-based, damage-detection approach was validated for its ability to autonomously detect damage in bridges. The damage-detection approach uses statistical differences in the actual and predicted behavior of the bridge caused under a subset of ambient trucks. The predicted behavior is derived from a statistics-based model trained with field data from the undamaged bridge (not a finite element model). The differences between actual and predicted responses, called residuals, are then used to construct control charts, which compare undamaged and damaged structure data. Validation of the damage-detection approach was achieved by using sacrificial specimens that were mounted to the bridge and exposed to ambient traffic loads and which simulated actual damage-sensitive locations. Different damage types and levels were introduced to the sacrificial specimens to study the sensitivity and applicability. The damage-detection algorithm was able to identify damage, but it also had a high false-positive rate. An evaluation of the sub-components of the damage-detection methodology and methods was completed for the purpose of improving the approach. Several of the underlying assumptions within the algorithm were being violated, which was the source of the false-positives. Furthermore, the lack of an automatic evaluation process was thought to potentially be an impediment to widespread use. Recommendations for the improvement of the methodology were developed and preliminarily evaluated. These recommendations are believed to improve the efficacy of the damage-detection approach.
Resumo:
False identity documents constitute a potential powerful source of forensic intelligence because they are essential elements of transnational crime and provide cover for organized crime. In previous work, a systematic profiling method using false documents' visual features has been built within a forensic intelligence model. In the current study, the comparison process and metrics lying at the heart of this profiling method are described and evaluated. This evaluation takes advantage of 347 false identity documents of four different types seized in two countries whose sources were known to be common or different (following police investigations and dismantling of counterfeit factories). Intra-source and inter-sources variations were evaluated through the computation of more than 7500 similarity scores. The profiling method could thus be validated and its performance assessed using two complementary approaches to measuring type I and type II error rates: a binary classification and the computation of likelihood ratios. Very low error rates were measured across the four document types, demonstrating the validity and robustness of the method to link documents to a common source or to differentiate them. These results pave the way for an operational implementation of a systematic profiling process integrated in a developed forensic intelligence model.
Resumo:
A novel approach for the identification of tumor antigen-derived sequences recognized by CD8(+) cytolytic T lymphocytes (CTL) consists in using synthetic combinatorial peptide libraries. Here we have screened a library composed of 3.1 x 10(11) nonapeptides arranged in a positional scanning format, in a cytotoxicity assay, to search the antigen recognized by melanoma-reactive CTL of unknown specificity. The results of this analysis enabled the identification of several optimal peptide ligands, as most of the individual nonapeptides deduced from the primary screening were efficiently recognized by the CTL. The results of the library screening were also analyzed with a mathematical approach based on a model of independent and additive contribution of individual amino acids to antigen recognition. This biometrical data analysis enabled the retrieval, in public databases, of the native antigenic peptide SSX-2(41-49), whose sequence is highly homologous to the ones deduced from the library screening, among the ones with the highest stimulatory score. These results underline the high predictive value of positional scanning synthetic combinatorial peptide library analysis and encourage its use for the identification of CTL ligands.