989 resultados para Erreur systématique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le manuscrit de Paris, BNF, fr. 818 renferme dans sa première partie (fol. 1-154) l'une des plus amples collections de miracles de Notre-Dame en langue vulgaire du xiiie siècle. Composée vers 1220 dans la région de Lyon, cette compilation anonyme compte parmi les rares textes littéraires produits au Moyen Âge dans l'espace francoprovençal, domaine géographiquement intermédiaire entre le domaine d'oïl et le domaine d'oc (et englobant notam- ment la plus grande partie de la Suisse romande), mais présentant des caracté- ristiques linguistiques qui lui sont propres. Malgré son grand intérêt linguistique et thématique, la collection de miracles du ms. fr. 818 demeure à ce jour partiellement inédite et n'a fait l'objet que d'études fragmentaires. Nous nous proposons donc d'apporter une contribution aux études francoprovençales en complétant l'édition de ce « Mariale en langue vulgaire » (selon l'expression de P. Meyer) et en ana- lysant la scripta très hétérogène de ce recueil, qui se présente comme un savant mélange de formes françaises et de formes lyonnaises. Grâce à l'exa- men systématique de tous les aspects remarquables de la langue du Mariale (phonétique, morphologie, lexique), nous souhaitons porter à la connais- sance des romanistes les riches matériaux francoprovençaux offerts par ce recueil, matériaux qui demeurent en partie méconnus et se trouvent parfois répertoriés dans les dictionnaires sous la fausse étiquette « française ».

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: The AU-rich elements (AREs) consisting of repeated AUUUA motifs confer rapid degradation to many cellular mRNAs when present in the 3' untranslated region (3'UTR). We have studied the instability of interleukin-6 mRNA by grafting its 3' untranslated region to a stable green fluorescent protein mRNA. Subsequent scanning mutagenesis identified two conserved elements, which taken together account for most of the instability. The first corresponds to a short non-canonical AU-rich element. The other comprises a sequence predicted to form astern-loop structure. Both elements need to be present in order to confer full instability (Paschoud et al. 2006). Destabilization of ARE-containing mRNAs is thought to involve ARE-binding proteins such as AUF1. We tested whether AUF1 binding to interleukin-6 mRNA correlates with decreased mRNA stability. Overexpression of myc-tagged p37AUFl and p42AUF1 as well as suppression of all four AUF1 isoforms by RNA interference stabilized the interleukin-6 mRNA. Furthermore, the interleukin-6 mRNA co-immunoprecipitated specifically with myc-tagged p37AUF1 and p42AUF1 in cell extracts. Both the stabilization and AUF1-binding required the non-canonical AU-rich sequence. These results indicate that AUF1 binds to the AU-rich element in vivo and promotes interleukin6 mRNA degradation. The combination of mRNA co-immunoprecipitation with microarray technology revealed that at least 500 cellular mRNAs associate with AUF1. Résumé: "La présence d'éléments riches en A et U (ARE), en particulier les motifs répétés d'AUUUA dans la région 3' non traduite, confère une dégradation rapide à beaucoup d'ARN cellulaires. Nous avons étudié l'instabilité de l'ARN codant pour l'interleukine 6 en greffant sa région 3' non traduite à un ARN stable codant pour la protéine fluorescente verte. La mutagenèse systématique des séquences non traduites a permis l'identification de deux éléments conservés qui confèrent l'instabilité à l'ARN. Le premier correspond à un élément AU-riche non canonique court. Le second comporte une structure en 'épingle à cheveux'. Tous les deux éléments doivent être présents afin de conférer une instabilité complète (Paschoud et al. 2006). On pense que des protéines telles que AUF1, pouvant se lier aux éléments ARE, sont impliquées dans la dégradation des ARN messagers. Nous avons examiné si la liaison de AUFl sur l'ARN de l'interleukine 6 corrèle avec une stabilité diminuée. La surexpression des protéines p37AUF1 et de p42AUF1 myc-étiquetées ainsi que la suppression de chacun des quatre isoformes de AUF1 par interférence d'ARN a stabilisé l'ARN messager d'interleukine 6. En outre, cet ARN co-immunoprécipite spécifiquement avec p37AUF1 et p42AUF1 dans des extraits cellulaires. La présence de l'élément AUriche non canonique est nécessaire pour la stabilisation de l'ARN et sa liaison avec AUFI. Ces résultats indiquent qu'AUF1 se lie à l'élément AU-riche in vivo et favorise la dégradation de l'ARN messager d'interleukine 6. La combinaison des techniques de coimmunoprécipitation des ARN messagers et des analyses par `microarray' indique qu'au moins 500 ARN cellulaires s'associent à AUF1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUME Les techniques de résection muqueuse endoscopique utilisées actuellement ne permettent pas d'effectuer une résection circonférentielle d'un long segment de muqueuse oesophagienne. Une telle résection permettrait le traitement de foyers multicentriques de dysplasies de haut grade (HGIN) ou d'adénocarcinomes précoces (AC) développés sur oesophage de Barrett. Sachant que la prévalence des métastases ganglionnaires régionales est d'environ 7 % pour les adénocarcinomes intra-muqueux (Tis,T1a), les méthodes de traitement non-chirurgicales et moins invasives sont actuellement préférées à une oesophagectomie, dont la morbidité et la mortalité restent élevées en comparaison avec les mucosectomies endoscopiques. Un oesophagoscope rigide modifié a été développé à Lausanne en collaboration avec la maison Karl Storz GmbH, de façon à permettre des résections muqueuses étendues dans l'oesophage. Cette étude animale pilote a investigué la faisabilité et la fiabilité des résections muqueuses circonférentielles de différentes longueurs dans l'oesophage du mouton. Des résections circonférentielles de 2,2 cm (n=6), 3,3 cm (n=6), 4,4 cm (n=7) et 5,5 cm (n=5) de longueur ont été effectuées dans l'oesophage de 24 moutons. Elles consistaient en 2 mucosectomies hémi-circonférentielles opposées. Les animaux ont été suivis par des examens endoscopiques à une semaine puis chaque mois pendant 6 mois ou jusqu'à réépithélialisation complète sans sténose. Au cours du processus de guérison, les sténoses cicatricielles ont été traitées par une ou plusieurs dilatations avec les bougies de Savary. Des résections circonférentielles de 2,2 à 5,5 cm de longueur ont été réalisées avec succès dans 23/24 des cas. Une seule perforation, secondaire à une erreur de manipulation, est survenue directement après la mucosectomie. A l'analyse histologique, une profondeur de résection précise à travers la sousmuq Tyrp1ueuse a été obtenue dans 85% des specimens. Les sténoses cicatricielles ont été contrôlées dans 95% des cas par dilatations avec les bougies de Savary. L'oesophagoscope rigide modifié a permis de réaliser des résections muqueuses circonférentielles et étendues en une seule séance endoscopique d'une durée de moins d'une demi-heure. L'utilisation de ce résectoscope chez l'homme devrait permettre l'éradication complète de l'oesophage de Barrett avec HGIN et/ou AC précoce dans un avenir très proche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

John Roger Commons est, de manière quasi systématique, considéré comme l'un des pères fondateurs de l'ancien institutionnalisme américain. On souligne tout aussi couramment l'influence que la philosophie pragmatiste a pu avoir sur ses travaux, du moins en ce qui concerne son ouvrage de 1934. Plus rares sont les commentateurs soulignant le rôle qu'a le langage, a fortiori le langage de l'économiste, dans l'analyse qu'il fait de l'évolution institutionnelle. Notre but sera de souligner ce fait : pour Commons, dire c'est faire, dans la lignée de la linguistique performativiste, dire c'est agir sur l'évolution institutionnelle. Abstract : John Roger Commons is well known as one of the founders of old institutionnalism. It is current to emphazise his philosophical roots : the american pragmatism, at least in his masterpiece of 1934. On the other hand, it is less frequent to point out the important role that the langage, and a fortiori economics' langage, has in his understanding of institutional evolution. Our aim will be to spotlight this point : for Commons, we can do things with words, on the way of performativist linguistic, when we use words, we influence institutional evolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Introduction (extrait)] Si l'on connaît généralement les revues systématiques dans le domaine médical ou des soins, l'évaluation de l'efficacité d'une intervention technique ou structurelle en dehors de ces domaines est moins connue. Le but est cependant similaire : quelles preuves a-t-on qu'une intervention soit efficace pour améliorer la santé de la population ou d'une personne ? L'article ci-dessous présente une revue systématique en prévention et santé publique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article propose un retour méthodologique sur une enquête de terrain parmi les policiers de la ville de Lausanne (Suisse). En plus des observations conduites, des photographies ont été prises durant les patrouilles. Les images produites par le chercheur ont alors fait l'objet d'une présentation systématique aux enquêtés. Cet échange in situ autour des photographies a ouvert des pistes pour documenter empiriquement l'organisation professionnelle des regards, ainsi que les « compétences visuelles » à l'oeuvre dans le contexte du travail policier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La BPCO est responsabled'une diminution de la qualité de vie et de la tolérance à l'exercice, et cause des exacerbations pouvant nécessiter des hospitalisations. Idéalement, sa prise en charge devrait comprendre des éléments pharmacologiques (par exemple bronchodilatateurs, corticostéroïdes inhalés) et non pharmacologiques (éducation, autogestion, plan d'action, réentraînement). L'objectif de cette revue systématique est d'évaluer l'efficacité des programmes de soins intégrés de la BPCO en termes de qualité de vie, de tolérance à l'exercice, de risque et de durée d'hospitalisation. Elle actualise les revues systématiques non Cochrane publiées auparavant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le curage ganglionnaire axillaire (CA) complémentaire en cas de micrométastase dans les ganglions sentinelles (GS) des cancers du sein (CS) n'est plus systématique depuis 2011 (Goldhirsch et al. Ann Oncol 2011;22:1736-47). En parallèle, plus de CS sont diagnostiqués à un stade précoce (N0) ; et l'échographie et la cytoponction/biopsie de ganglions axillaires en détectant des métastases en préopératoire permettent une meilleure sélection des patientes pour la procédure du GS. Ces évolutions amènent à réévaluer le rôle de l'examen extemporané des GS (EE). Objectif: Notre but était d'observer l'évolution de la pratique du CA en lien avec les résultats des EE (par cytologie +/- coupe congelée) entre 2011 et 2012 dans notre Centre. Méthode: Pour les 79 patientes dont le CS invasif a été classé pN > 0 en 2011 et 2012 (38 et 41 cas, 25 et 35% des cancers invasifs), nous avons comparé 1/ les taux de CA réalisés : au total; d'emblée (sans GS) ; après résultat positif de l'EE en 1 temps ; et en 2 temps opératoires ; et 2/ les taux d'abstention de CA en cas de GS positif. Résultats: En 2012 par rapport à 2011, bien que les différences ne soient pas significatives, on observe une tendance à la baisse des taux de CA : au total (18,8 vs 26,8%, p=0,24) ; d'emblée (12,8 vs 16,7%, p=0,49) ; après GS (7,3 vs 12,1%, p=0,27) ; en 1 temps opératoire (6,3 vs 9,7%, p=0,46) ; en 2 temps 53 (1,0 vs 2,4%, p=0,63). Les taux d'abstention de CA en cas de GS positif (pN > 0) étaient de 63% en 2012 (12/19, dont 13 pN1mi) vs 0% en 2011(p=0.0001). Discussion : Les effets conjoints du diagnostic précoce des CS, des performances de l'imagerie du creux axillaire et de l'abstention de CA en cas de micrométastases résultent en une tendance à la réduction du nombre de CA réalisés après procédure du GS. Dans cette série, le défaut de sensibilité de l'EE (par une méthode morphologique) pour la détection des micrométastases a permis dans 12/13 cas en 2012 de décider d'une abstention de CA lors de la réunion de concertation pluridisciplinaire. Conclusion: Si les tendances observées sur ces deux années se confirment, le bénéfice de l'EE des GS devra à terme être ré-évalué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs infirmières pratiquant dans les centres d'hébergement se questionnent sur la pertinence d'utiliser systématiquement certaines échelles de mesure. Elles sont d'avis que l'utilisation ou les modalités entourant l'usage de ces échelles augmentent surtout leur charge de travail et ne contribuent pas toujours à l'amélioration de la qualité des soins. Face à cette préoccupation, la communauté de pratique de la Faculté des sciences infirmières de l'Université Laval sur les soins à l'aîné en centre d'hébergement (CP-FSI) a voulu explorer les fondements à la base des recommandations de ces différents instruments de mesure en l'occurrence l'échelle du risque de plaie de pression de Braden et les échelles d'évaluation des risques de chute. Un examen de la littérature scientifique et l'analyse de données empiriques amènent à la conclusion que l'utilisation systématique de ces échelles alourdit en effet la tâche des infirmières. Qui plus est, le jugement clinique infirmier est équivalent ou supérieur à l'utilisation de ces échelles. La CP-FSI conclut à l'importance de modifier les recommandations sur l'usage systématique de ces échelles et de plutôt valoriser le jugement clinique des infirmières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME EN FRANÇAIS BUTS. Étudier les relations entre le diabète gestationnel (GDM) et le syndrome métabolique (MS), comme la résistance à l'insuline est une des caractéristiques des 'deux conditions. Analyser le dépistage du diabète dans le post-partum pour identifier les facteurs de risque associés au développement d'un diabète de type 2 ultérieur. MÉTHODES. Étude rétrospective de toutes les grossesses uniques diagnostiquées avec un diabète gestationnel à l'hôpital universitaire de Lausanne, pendant une durée de trois ans. La présence d'une obésité, d'une hypertension ou d'une dyslipidémie avant la grossesse définissent les composants du syndrome métabolique. RÉSULTATS. Sur 5788 grossesses, 159 patientes (2.7%) présentaient un diabète gestationnel. Des composants du syndrome métabolique étaient présents avant la grossesse chez 26% des patientes (n=37/144) : 84% (n=31/37) étaient obèses, 38% (n=14/37) présentaient une hypertension et 22% (n=8/37) une dyslipidémie. Le développement d'une hypertension gravidique était associé à l'obésité (OR=3.2, p=0.02) et à la dyslipidémie (OR=5.4, p=0.002). Septante-quatre patientes (47%) sont revenues pour l'HGPO dans le post-partum. Celle-ci était anormale chez 20 femmes (27%): 11 % (n=8) présentaient un diabète de type 2 et 16% (n=12) avaient une intolérance au glucose. Les facteurs de risque indépendants associés à une anomalie de la tolérance au glucose dans le post-partum étaient d'avoir plus de 2 valeurs anormales au test diagnostique durant la grossesse et présenter des composants du syndrome métabolique (OR=5.2, CI 1.8-23.2 et OR=5.3, CI 1.3-22.2). CONCLUSIONS. Dans un quart des grossesses avec un diabète gestationnel, des anomalies métaboliques précèdent l'apparition de l'intolérance au glucose. Ces patientes présentent un haut risque de développer un syndrome métabolique et un diabète de type 2 ultérieurement. Là où le dépistage du diabète gestationnel n'est pas systématique, les praticiens devraient être avertis de ces risques métaboliques chez les patiente se présentant avec une obésité, une hypertension ou une dyslipidémie, afin de mieux les diagnostiquer et surtout de mieux les suivre et traiter après leur grossesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Messages à retenir: La scanographie hélicoïdale à collimation fine sur l'ensemble du thorax est l'examen de référence pour le diagnostic et l'évaluation de la distributiontopographique et de l'étendue des bronchectasies.Les reformations multiplanaires et les techniques de projection d'intensité maximum et minimum améliorent les performances diagnostiques et permettent unemeilleure détection des lésions associées des petites voies aériennes (bronchiolite infectieuse, bronchiolite oblitérative).Chez les patients atteints de bronchectasies, le degré d'épaississement pariétal bronchique ainsi que l'étendue des zones hypodenses hypoperfusées traduisantdes lésions d'obstruction bronchiolaire sont parfaitement corrélés à la sévérité du retentissement fonctionnel de la maladie .La scanographie est peu fiable pour reconnaître le diagnostic étiologique des bronchectasies. Résumé: La scanographie hélicoïdale multidétecteur à collimation fine sur l'ensemble du thorax au cours d'une seule et même apnée inspiratoire est supérieure auxexamens en coupes fines incrémentales haute résolution avec un intervalle de coupes de 10 mm, pour le diagnostic et l'évaluation de l'étendue desbronchectasies. L'usage des reformations multiplanaires améliore la détection des bronchectasies, augmente la reproductibilité des radiologues pour lediagnostic des bronchectasies ainsi que leur niveau de confiance pour apprécier la distribution lésionnelle . L'examen scanographique évalue le nombre et ladistribution des impactions mucoïdes dans des bronches dilatées et le retentissement de l'atteinte bronchique sur les voies aériennes distales et le parenchymepulmonaire. La recherche d'atteinte associée des petites voies aériennes est systématique : détection des foyers de bronchiolite infectieuse et évaluation de l'étendue des zones hypodenses, hypoperfusées, avec piégeage, qui reflètent les lésions de bronchiolite oblitérative . Ces dernières sont corrélées au degré desévérité de l'obstruction fonctionnelle. La scanographie reste peu fiable pour le diagnostic étiologique des bronchectasies. Inversement, certains mécanismessont facilement identifiés, tels que les bronchectasies post-obstructives et les bronchectasies par traction des fibroses pulmonaires .