451 resultados para Validit
Resumo:
La médecine génomique est souvent présentée comme un nouveau paradigme permettant une prise en charge personnalisée du patient. Englobant à la fois une démarche de recherche et une vision de la médecine du futur, elle pourrait avoir des conséquences importantes sur la manière de diagnostiquer, traiter et prévenir la maladie. Cet article présente quelques grands enjeux éthiques et sociaux soulevés par le développement de la médecine génomique: les implications sur nos conceptions de la maladie et de l'identité, la question de la validité et de l'utilité clinique des analyses du génome, les enjeux liés à la maîtrise de l'information génétique par les soignants et à sa communication aux patients, et la question des coûts pour le système de santé.
Resumo:
''Like Parents, Like Children?'' Using Secondary Data in the Study of Parental Political Influence in Switzerland: This text is devoted to the intergenerational transmission of left-right ideological orientation. Using data from the Swiss Household Panel (www.swisspanel.ch), collected both directly and through intermediaries, it raises the question of the validity of second-hand information, which is discussed on several points. The article also shows that there is a strong long-term coherence between the ideological orientation of parents and their children. It also highlights the fact that the link is not the same for boys as for girls, and it varies between generations. Finally, it shows that strong upward social mobility, compared to the original environment, facilitates emancipation from parental ideology, social inertia being greater for downward and horizontal mobility. Ce texte est consacré à la transmission intergénérationnelle de l'orientation idéologique gauche-droite. Utilisant des données du Panel Suisse de Ménages (www.swisspanel.ch), collectées tant directement que par personnes interposées, il pose la question de la validité des informations de seconde main, qui est étudiée sur plusieurs points. L'article montre en outre qu'il existe à long terme une forte cohérence entre l'orientation idéologique des parents et de leurs enfants. Il met aussi en évidence que ce lien n'est pas la même auprès des garçons qu'auprès des filles, et qu'il varie entre les générations. Finalement, il montre qu'une forte ascension sociale par rapport au milieu d'origine facilite l'émancipation des orientations idéologiques parentales, l'inertie étant plus forte pour les trajectoires descendantes et horizontales.
Resumo:
Les problèmes d'écoulements multiphasiques en média poreux sont d'un grand intérêt pour de nombreuses applications scientifiques et techniques ; comme la séquestration de C02, l'extraction de pétrole et la dépollution des aquifères. La complexité intrinsèque des systèmes multiphasiques et l'hétérogénéité des formations géologiques sur des échelles multiples représentent un challenge majeur pour comprendre et modéliser les déplacements immiscibles dans les milieux poreux. Les descriptions à l'échelle supérieure basées sur la généralisation de l'équation de Darcy sont largement utilisées, mais ces méthodes sont sujettes à limitations pour les écoulements présentant de l'hystérèse. Les avancées récentes en terme de performances computationnelles et le développement de méthodes précises pour caractériser l'espace interstitiel ainsi que la distribution des phases ont favorisé l'utilisation de modèles qui permettent une résolution fine à l'échelle du pore. Ces modèles offrent un aperçu des caractéristiques de l'écoulement qui ne peuvent pas être facilement observées en laboratoire et peuvent être utilisé pour expliquer la différence entre les processus physiques et les modèles à l'échelle macroscopique existants. L'objet premier de la thèse se porte sur la simulation numérique directe : les équations de Navier-Stokes sont résolues dans l'espace interstitiel et la méthode du volume de fluide (VOF) est employée pour suivre l'évolution de l'interface. Dans VOF, la distribution des phases est décrite par une fonction fluide pour l'ensemble du domaine et des conditions aux bords particulières permettent la prise en compte des propriétés de mouillage du milieu poreux. Dans la première partie de la thèse, nous simulons le drainage dans une cellule Hele-Shaw 2D avec des obstacles cylindriques. Nous montrons que l'approche proposée est applicable même pour des ratios de densité et de viscosité très importants et permet de modéliser la transition entre déplacement stable et digitation visqueuse. Nous intéressons ensuite à l'interprétation de la pression capillaire à l'échelle macroscopique. Nous montrons que les techniques basées sur la moyenne spatiale de la pression présentent plusieurs limitations et sont imprécises en présence d'effets visqueux et de piégeage. Au contraire, une définition basée sur l'énergie permet de séparer les contributions capillaires des effets visqueux. La seconde partie de la thèse est consacrée à l'investigation des effets d'inertie associés aux reconfigurations irréversibles du ménisque causé par l'interface des instabilités. Comme prototype pour ces phénomènes, nous étudions d'abord la dynamique d'un ménisque dans un pore angulaire. Nous montrons que, dans un réseau de pores cubiques, les sauts et reconfigurations sont si fréquents que les effets d'inertie mènent à différentes configurations des fluides. A cause de la non-linéarité du problème, la distribution des fluides influence le travail des forces de pression, qui, à son tour, provoque une chute de pression dans la loi de Darcy. Cela suggère que ces phénomènes devraient être pris en compte lorsque que l'on décrit l'écoulement multiphasique en média poreux à l'échelle macroscopique. La dernière partie de la thèse s'attache à démontrer la validité de notre approche par une comparaison avec des expériences en laboratoire : un drainage instable dans un milieu poreux quasi 2D (une cellule Hele-Shaw avec des obstacles cylindriques). Plusieurs simulations sont tournées sous différentes conditions aux bords et en utilisant différents modèles (modèle intégré 2D et modèle 3D) afin de comparer certaines quantités macroscopiques avec les observations au laboratoire correspondantes. Malgré le challenge de modéliser des déplacements instables, où, par définition, de petites perturbations peuvent grandir sans fin, notre approche numérique apporte de résultats satisfaisants pour tous les cas étudiés. - Problems involving multiphase flow in porous media are of great interest in many scientific and engineering applications including Carbon Capture and Storage, oil recovery and groundwater remediation. The intrinsic complexity of multiphase systems and the multi scale heterogeneity of geological formations represent the major challenges to understand and model immiscible displacement in porous media. Upscaled descriptions based on generalization of Darcy's law are widely used, but they are subject to several limitations for flow that exhibit hysteric and history- dependent behaviors. Recent advances in high performance computing and the development of accurate methods to characterize pore space and phase distribution have fostered the use of models that allow sub-pore resolution. These models provide an insight on flow characteristics that cannot be easily achieved by laboratory experiments and can be used to explain the gap between physical processes and existing macro-scale models. We focus on direct numerical simulations: we solve the Navier-Stokes equations for mass and momentum conservation in the pore space and employ the Volume Of Fluid (VOF) method to track the evolution of the interface. In the VOF the distribution of the phases is described by a fluid function (whole-domain formulation) and special boundary conditions account for the wetting properties of the porous medium. In the first part of this thesis we simulate drainage in a 2-D Hele-Shaw cell filled with cylindrical obstacles. We show that the proposed approach can handle very large density and viscosity ratios and it is able to model the transition from stable displacement to viscous fingering. We then focus on the interpretation of the macroscopic capillary pressure showing that pressure average techniques are subject to several limitations and they are not accurate in presence of viscous effects and trapping. On the contrary an energy-based definition allows separating viscous and capillary contributions. In the second part of the thesis we investigate inertia effects associated with abrupt and irreversible reconfigurations of the menisci caused by interface instabilities. As a prototype of these phenomena we first consider the dynamics of a meniscus in an angular pore. We show that in a network of cubic pores, jumps and reconfigurations are so frequent that inertia effects lead to different fluid configurations. Due to the non-linearity of the problem, the distribution of the fluids influences the work done by pressure forces, which is in turn related to the pressure drop in Darcy's law. This suggests that these phenomena should be taken into account when upscaling multiphase flow in porous media. The last part of the thesis is devoted to proving the accuracy of the numerical approach by validation with experiments of unstable primary drainage in a quasi-2D porous medium (i.e., Hele-Shaw cell filled with cylindrical obstacles). We perform simulations under different boundary conditions and using different models (2-D integrated and full 3-D) and we compare several macroscopic quantities with the corresponding experiment. Despite the intrinsic challenges of modeling unstable displacement, where by definition small perturbations can grow without bounds, the numerical method gives satisfactory results for all the cases studied.
Resumo:
A partir d'un questionnement sur les données relatives au concept linguistique de langue «littéraire», concept central d'une théorie scientifique prospère en Union soviétique à partir des années 1960 jusqu'aujourd'hui, je cherche à proposer des explications qui pourraient rendre compte de l'ensemble des données analysées dans ma thèse. Mes conclusions se présentent sous trois angles : épistémologique (genèse et évolution du concept), historique et sociologique.Du point de vue de sa genèse, la théorie des langues «littéraire» mélange plusieurs sources: elle «greffe» l'apport des historiens de la langue comme A.A. Saxmatov (1864-1920) sur une longue réflexion, menée dès le XVIIIe s., l'époque de M.V. Lomonosov (1711-1765), sur ce qui est la langue de la civilisation russe. Le terme de langue «littéraire» russe est passé des littéraires aux linguistes pour tomber chez les sociolinguistes soviétiques (L. Krysin, E. Zemskaja) avec à chaque passage un contenu différent sans que pour autant ces différences soient explicitées de façon satisfaisante. Comparée aux définitions antérieures de la langue «littéraire», celle de la période des années 1960-90 est nettement plus prescriptive et renvoie à un usage réel qui serait supérieur à tous les autres et engloberait tout l'espace russophone en vertu de ses prétendues propriétés systémiques, jamais démontrées par les chercheurs.Les écueils de la théorie des langues «littéraires» et sa vitalité trouvent des explications si l'on prend en compte l'historicité des phénomènes. En replaçant les textes de linguistes dans un contexte anthropologique (historique, politique, institutionnel) plus large, je propose un récit des événements et des influences différent de récits canoniques présentés dans les ouvrages soviétiques. Je situe dans les années 1930 une mise en place de l'édifice du concept de langue «littéraire» à venir, inauguré dans les travaux de L.P. Jakubinskij (1892-1945) et V.M. Zirmunskij (1891-1971), où sous la désignation de «langue nationale» est décrite dans les grandes lignes 1e. concept de langue «littéraire» de la linguistique soviétique à venir.L'étude du contexte historique et l'examen de la validité de la théorie des langues «littéraire» m'ont amenée à formuler l'hypothèse qu'il existe une représentation sociale de la langue «littéraire» contenant plusieurs éléments du concept linguistique du même nom et partagée par des groupes sociaux plus larges que celui de professionnels du langage. J'ai entrepris d'établir les contours de cette représentation en appliquant les procédés proposés dans les travaux en psychologie sociale sur les représentations. D'après mon analyse, la représentation de la langue «littéraire» est plutôt stable. Du point de vue de sa formation et de son fonctionnement, c'est une représentation du type idéologique. Du point de vue de son organisation, elle présente plusieurs similitudes avec les représentations de la nation, qui se manifestent par l'adhésion des sujets à un héritage, supposé commun, de valeurs dont la langue fait partie et où elle est investie d'une forte charge identitaire. Cette valeur de la langue «littéraire» nationale est soutenue par l'État, l'enseignement, des institutions de régulation et les spécialistes du langage.Ainsi, une étude historique d'une théorie linguistique particulière présente un autre intérêt que celui de dresser un récit cohérent des événements et des influences, à savoir d'approcher à travers un corpus de textes de linguistes le domaine d'opinions des locuteurs sur leur usage langagier.
Resumo:
Résumé Métropolisation, morphologie urbaine et développement durable. Transformations urbaines et régulation de l'étalement : le cas de l'agglomération lausannoise. Cette thèse s'inscrit clans la perspective d'une analyse stratégique visant à un définir et à expliciter les liens entre connaissance, expertise et décision politique. L'hypothèse fondamentale qui oriente l'ensemble de ce travail est la suivante : le régime d'urbanisation qui s'est imposé au cours des trente dernières années correspond à une transformation du principe morphogénétique de développement spatial des agglomérations qui tend à alourdir leurs bilans écologiques et à péjorer la qualité du cadre de vie des citadins. Ces enjeux environnementaux liés aux changements urbains et singulièrement ceux de la forme urbaine constituent un thème de plus en plus important dans la recherche de solutions d'aménagement urbain dans une perspective de développement durable. Dans ce contexte, l'aménagement urbain devient un mode d'action et une composante de tout premier ordre des politiques publiques visant un développement durable à l'échelle locale et globale. Ces modalités de développement spatial des agglomérations émergent indiscutablement au coeur de la problématique environnementale. Or si le concept de développement durable nous livre une nouvelle de de lecture des territoires et de ses transformations, en prônant le modèle de la ville compacte et son corollaire la densification, la traduction à donner à ce principe stratégique reste controversée, notamment sous l'angle de l'aménagement du territoire et des stratégies de développement urbain permettant une mise en oeuvre adéquate des solutions proposées. Nous avons ainsi tenté dans ce travail de répondre à un certain nombre de questions : quelle validité accorder au modèle de la ville compacte ? La densification est-elle une réponse adéquate ? Si oui, sous quelles modalités ? Quelles sont, en termes de stratégies d'aménagement, les alternatives durables au modèle de la ville étalée ? Faut-il vraiment densifier ou simplement maîtriser la dispersion ? Notre objectif principal étant in fine de déterminer les orientations et contenus urbanistiques de politiques publiques visant à réguler l'étalement urbain, de valider la faisabilité de ces principes et à définir les conditions de leur mise en place dans le cas d'une agglomération. Pour cela, et après avoir choisi l'agglomération lausannoise comme terrain d'expérimentation, trois approches complémentaires se sont révélées indispensables dans ce travail 1. une approche théorique visant à définir un cadre conceptuel interdisciplinaire d'analyse du phénomène urbain dans ses rapports à la problématique du développement durable liant régime d'urbanisation - forme urbaine - développement durable ; 2. une approche méthodologique proposant des outils d'analyse simples et efficaces de description des nouvelles morphologies urbaines pour une meilleure gestion de l'environnement urbain et de la pratique de l'aménagement urbain ; 3. une approche pragmatique visant à approfondir la réflexion sur la ville étalée en passant d'une approche descriptive des conséquences du nouveau régime d'urbanisation à une approche opérationnelle, visant à identifier les lignes d'actions possibles dans une perspective de développement durable. Cette démarche d'analyse nous a conduits à trois résultats majeurs, nous permettant de définir une stratégie de lutte contre l'étalement. Premièrement, si la densification est acceptée comme un objectif stratégique de l'aménagement urbain, le modèle de la ville dense ne peut être appliqué saris la prise en considération d'autres objectifs d'aménagement. Il ne suffit pas de densifier pour réduire l'empreinte écologique de la ville et améliorer la qualité de vie des citadins. La recherche d'une forme urbaine plus durable est tributaire d'une multiplicité de facteurs et d'effets de synergie et la maîtrise des effets négatifs de l'étalement urbain passe par la mise en oeuvre de politiques urbaines intégrées et concertées, comme par exemple prôner la densification qualifiée comme résultante d'un processus finalisé, intégrer et valoriser les transports collectifs et encore plus la métrique pédestre avec l'aménagement urbain, intégrer systématiquement la diversité à travers les dimensions physique et sociale du territoire. Deuxièmement, l'avenir de ces territoires étalés n'est pas figé. Notre enquête de terrain a montré une évolution des modes d'habitat liée aux modes de vie, à l'organisation du travail, à la mobilité, qui font que l'on peut penser à un retour d'une partie de la population dans les villes centres (fin de la toute puissance du modèle de la maison individuelle). Ainsi, le diagnostic et la recherche de solutions d'aménagement efficaces et viables ne peuvent être dissociés des demandes des habitants et des comportements des acteurs de la production du cadre bâti. Dans cette perspective, tout programme d'urbanisme doit nécessairement s'appuyer sur la connaissance des aspirations de la population. Troisièmement, la réussite de la mise en oeuvre d'une politique globale de maîtrise des effets négatifs de l'étalement urbain est fortement conditionnée par l'adaptation de l'offre immobilière à la demande de nouveaux modèles d'habitat répondant à la fois à la nécessité d'une maîtrise des coûts de l'urbanisation (économiques, sociaux, environnementaux), ainsi qu'aux aspirations émergentes des ménages. Ces résultats nous ont permis de définir les orientations d'une stratégie de lutte contre l'étalement, dont nous avons testé la faisabilité ainsi que les conditions de mise en oeuvre sur le territoire de l'agglomération lausannoise. Abstract This dissertation participates in the perspective of a strategic analysis aiming at specifying the links between knowledge, expertise and political decision, The fundamental hypothesis directing this study assumes that the urban dynamics that has characterized the past thirty years signifies a trans-formation of the morphogenetic principle of agglomerations' spatial development that results in a worsening of their ecological balance and of city dwellers' quality of life. The environmental implications linked to urban changes and particularly to changes in urban form constitute an ever greater share of research into sustainable urban planning solutions. In this context, urban planning becomes a mode of action and an essential component of public policies aiming at local and global sustainable development. These patterns of spatial development indisputably emerge at the heart of environmental issues. If the concept of sustainable development provides us with new understanding into territories and their transformations, by arguing in favor of densification, its concretization remains at issue, especially in terms of urban planning and of urban development strategies allowing the appropriate implementations of the solutions offered. Thus, this study tries to answer a certain number of questions: what validity should be granted to the model of the dense city? Is densification an adequate answer? If so, under what terms? What are the sustainable alternatives to urban sprawl in terms of planning strategies? Should densification really be pursued or should we simply try to master urban sprawl? Our main objective being in fine to determine the directions and urban con-tents of public policies aiming at regulating urban sprawl, to validate the feasibility of these principles and to define the conditions of their implementation in the case of one agglomeration. Once the Lausanne agglomeration had been chosen as experimentation field, three complementary approaches proved to be essential to this study: 1. a theoretical approach aiming at definying an interdisciplinary conceptual framework of the ur-ban phenomenon in its relation to sustainable development linking urban dynamics - urban form - sustainable development ; 2. a methodological approach proposing simple and effective tools for analyzing and describing new urban morphologies for a better management of the urban environment and of urban planning practices 3. a pragmatic approach aiming at deepening reflection on urban sprawl by switching from a descriptive approach of the consequences of the new urban dynamics to an operational approach, aiming at identifying possible avenues of action respecting the principles of sustainable development. This analysis approach provided us with three major results, allowing us to define a strategy to cur-tail urban sprawl. First, if densification is accepted as a strategic objective of urban planning, the model of the dense city can not be applied without taking into consideration other urban planning objectives. Densification does not suffice to reduce the ecological impact of the city and improve the quality of life of its dwellers. The search for a more sustainable urban form depends on a multitude of factors and effects of synergy. Reducing the negative effects of urban sprawl requires the implementation of integrated and concerted urban policies, like for example encouraging densification qualified as resulting from a finalized process, integrating and developing collective forms of transportation and even more so the pedestrian metric with urban planning, integrating diversity on a systematic basis through the physical and social dimensions of the territory. Second, the future of such sprawling territories is not fixed. Our research on the ground revea-led an evolution in the modes of habitat related to ways of life, work organization and mobility that suggest the possibility of the return of a part of the population to the center of cities (end of the rule of the model of the individual home). Thus, the diagnosis and the search for effective and sustainable solutions can not be conceived of independently of the needs of the inhabitants and of the behavior of the actors behind the production of the built territory. In this perspective, any urban program must necessarily be based upon the knowledge of the population's wishes. Third, the successful implementation of a global policy of control of urban sprawl's negative effects is highly influenced by the adaptation of property offer to the demand of new habitat models satisfying both the necessity of urbanization cost controls (economical, social, environ-mental) and people's emerging aspirations. These results allowed us to define a strategy to cur-tail urban sprawl. Its feasibility and conditions of implementation were tested on the territory of the Lausanne agglomeration.
Resumo:
Rapport de synthèse : Description : ce travail de thèse évalue de façon systématique les études sur l'association entre les dysfonctions thyroïdiennes infracliniques d'une part, et la maladie coronarienne et la mortalité d'autre part. Les hypothyroïdies infracliniques affectent environ 4-5% de la population adulte alors que la prévalence de l'hyperthyroïdie infraclinique est inférieure (environ 1%). L'éventuelle association entre elles pourrait justifier un dépistage systématique des dysfonctions thyroïdiennes infracliniques. Les précédentes études sur l'association entre l'hypothyroïdie infraclinique et la maladie coronarienne ont donné des résultats conflictuels. La parution de nouveaux articles récents basés sur de grandes cohortes prospectives nous a permis d'effectuer une méta-analyse basée uniquement sur des études de cohorte prospectives, augmentant ainsi la validité des résultats. Résultats: 10 des 12 études identifiées pour notre revue systématique sont basées sur des cohortes issues de la population générale («population-based »), regroupant en tout 14 449 participants. Ces 10 études examinent toutes le risque associé à l'hypothyroïdie infraclinique (avec 2134 événements coronariens et 2822 décès), alors que 5 étudient également le risque associé à l'hyperthyroïdie infraclinique (avec 1392 événements coronariens et 1993 décès). En utilisant un modèle statistique de type random-effect model, le risque relatif [RR] lié à l'hypothyroïdie infraclinique pour la maladie coronarienne est de 1.20 (intervalle de confiance [IC] de 95%, 0.97 à 1.49). Le risque diminue lorsque l'on regroupe uniquement les études de meilleure qualité (RR compris entre 1.02 et 1.08). Il est plus élevé parmi les participants de moins de 65 ans (RR, 1.51 [IC, 1.09 à 2.09] et 1.05 [IC, 0.90 à 1.22] pour les études dont l'âge moyen des participants est >_ 65 ans). Le RR de la mortalité cardiovasculaire est de 1.18 (IC, 0.98 à 1.42) et de 1.12 (IC, 0.99 à 1.26) pour la mortalité totale. En cas d'hyperthyroïdie infraclinique, les RR de la maladie coronarienne sont de 1.21 (IC, 0.88 à 1.68), de 1.19 (IC, 0.81 à 1.76) pour la mortalité cardiovasculaire, et de 1.12 (IC, 0.89 à 1.42) pour la mortalité totale. Conclusions et perspectives : nos résultats montrent que les dysfonctions thyroïdiennes infracliniques (hypothyroïdie et hyperthyroïdie infracliniques) représentent un facteur de risque modifiable, bien que modéré, de la maladie coronarienne et de la mortalité. L'efficacité du traitement de ces dysfonctions thyroïdiennes infracliniques doit encore être prouvée du point de vue cardiovasculaire et de la mortalité. Il est nécessaire d'effectuer des études contrôlées contre placebo avec le risque cardiovasculaire et la mortalité comme critères d'efficacité, avant de pouvoir proposer des recommandations sur le dépistage des ces dysfonctions thyroïdiennes dans la population adulte.
Resumo:
Introduction: Le captopril, inhibiteur de l'enzyme de conversion de l'angiotensine, est largement utilisé dans le traitement de l'hypertension artérielle et de l'insuffisance cardiaque chez l'adulte et l'enfant . De par son instabilité en milieu aqueux (oxydation en captopril disulfure), il n'est actuellement commercialisé que sous forme de comprimés. La prescription fréquente de doses faibles et variables en pédiatrie justifiait le développement d'une forme orale liquide, tant sur le plan pratique et économique, que sur celui de la sécurité d'administration. Cependant toutes les formulations orales liquides publiées présentent une stabilité courte, ne dépassant guère 1 mois. Objectif: Développer une forme orale liquide de captopril d'une stabilité d'au moins 6 mois. Méthode: Sur la base des données de la littérature, élaboration de 8 formulations liquides différentes de captopril 1 mg/ml (concentration permettant le prélèvement d'un volume adéquat pour une administration en pédiatrie). Mise au point d'une « stability indicating method » par HPLC par des tests de dégradation accélérée à la chaleur (100°C), en milieu acide, basique, en présence d'un agent oxydant et de la lumière. Sélection de la formulation la plus stable durant le premier mois. Etude de stabilité sur 2 ans de 3 lots (3 échantillons/lot) dans leur conditionnement final à température ambiante (TA), au frigo et à 40° ± 2°C. Contrôle microbiologique au début et à la fin de l'étude selon la méthode de la Ph. Eur. (Ed. 3). Résultats: La formule retenue est une solution aqueuse de captopril 1 mg/ml additionnée d'EDTA 1 mg/ml comme stabilisateur et conditionnée dans des flacons VERAL en verre brun de 60 ml. Après dégradation dans les conditions définies ci-dessus, le pic du captopril est nettement séparé sur les chromatogrammes de ceux des produits de dégradation. Après 2 ans, la concentration mesurée est de 104.6% (±0.32%) au frigo, 103.6% (±0.86%) à TA et 96.5 % (±0.02%) à 40°C. Aucune croissance n'a été observée sur la durée de l'étude. Discussion et conclusion: La solution de captopril 1 mg/ml mise au point est simple à préparer. En partant du principe actif pur et en présence d'EDTA comme complexant, les traces de métaux éventuellement présents n'induisent pas l'oxydation du captopril et par conséquent le recours à d'autres stabilisateurs n'est pas nécessaire. La méthode HPLC développée est une « stability indicating method ». Les résultats de l'étude ont montré que cette solution a une durée de validité de 2 ans au frigo et à TA. Compte tenu du fait que la préparation ne contient pas d'agent antimicrobien, une conservation au frigo (2 - 8°C) est toutefois recommandée. La formule proposée présente un réel avantage en pédiatrie tant sur le plan de la sécurité d'administration que sur celui de l'économie.
Resumo:
Résumé Etude de la valeur pronostique de la biopsie du ganglion sentinelle dans une étude prospective monocentrique de 327 patients atteints de mélanome malin But II s'agit de confirmer la validité de la biopsie du ganglion sentinelle, d'en définir la morbidité, d'investiguer les facteurs prédictifs pour le statut du ganglion sentinelle ainsi que de déterminer les facteurs pronostiques pour la survie sans récidive et la survie spécifique liée à la maladie. Matériel et méthode D'octobre 1997 à décembre 2004, 327 patients consécutifs présentant un mélanome cutané primaire des membres, du tronc et de la tête, sans adénopathie clinique ni métastase à distance ont été inclus. La biopsie du ganglion sentinelle a été réalisée selon la triple technique (lymphoscintigraphie, colorant bleu vital et sonde de détection gamma). Les paramètres et la survie ont été évalués par différentes analyses de régression logistique multiple selon Cox et la survie évaluée selon Kaplan Meier. Résultats Vingt-trois pour cent des patients présentaient au moins un ganglion sentinelle métastatique, ce qui était associé de façon significative à l'épaisseur selon Breslow (p<0.001). Le taux de succès de la biopsie du ganglion sentinelle était de 99.1% et sa morbidité de 7.6%. Avec une durée médiane de suivi de 33 mois, la survie sans récidive à 5 ans était de 43% pour les patients avec un ganglion sentinelle positif et de 83.5% pour ceux avec un ganglion sentinelle négatif. La survie spécifique liée à la maladie à 5 ans était de 49% pour les patients avec un ganglion sentinelle positif et de 87.4% pour ceux avec un ganglion sentinelle négatif. Le taux de faux négatif de la biopsie du ganglion sentinelle était de 8.6%. L'analyse multivariée a démontré que la survie sans récidive était significativement péjorée par :l'épaisseur selon Breslow (RR=5.6, p<0.001), un ganglion sentinelle positif (RR=5.0, p<0.001), et le sexe masculin (RR=2.9, p=0.001). La survie spécifique liée à la maladie était significativement diminuée par : un ganglion sentinelle métastatique (RR=8.4, p<O.OOI), le sexe masculin (RR=6.1, p<0.001), l'épaisseur selon Breslow (RR=3.2, p=0.013), et la présence d'une ulcération (RR=2.6, p=0.015). Conclusion La biopsie du ganglion sentinelle est une procédure fiable avec une haute sensibilité (91.4%) et une faible morbidité (7.6%). L'épaisseur selon Breslow était le seul facteur prédictif significatif pour le statut du ganglion sentinelle. La survie sans récidive était péjorée selon un ordre décroissant par :l'épaisseur selon Breslow, un ganglion sentinelle métastatique, et le sexe masculin. De façon similaire la survie spécifique liée à la maladie était péjorée par : un ganglion sentinelle métastatique, le sexe masculin, l'épaisseur selon Breslow, et une ulcération. Ces données renforcent le statut du ganglion sentinelle en tant que puissant moyen pour évaluer le stade tumoral ainsi que le pronostic.
Resumo:
Cette étude investigue la validité et la fidélité de la version française de l'Inventaire de Satisfaction Conjugale (MSI-R). Cet instrument multidimensionnel a montré ses apports dans les recherches internationales mais également dans la pratique clinique pour mesurer la nature et l'ampleur des conflits au sein d'un mariage ou d'une relation de couple. Les indices de consistance interne et de stabilité temporelle, calculés sur un échantillon constitué de 160 couples francophones, sont satisfaisants et similaires à ceux obtenus sur de précédentes traductions. Nous avons aussi répliqué la structure factorielle proposée récemment par Herrington et al. (2008), permettant de confirmer les deux facteurs, dysharmonie et désaffection, qui pourraient être utilisés dans de futures recherches à partir d'une version brève du MSI-R. Globalement, les résultats soutiennent la validité de construit de cette mesure pour des couples francophones. Nous avons mis en évidence des liens entre les échelles du questionnaire et d'autres mesures du fonctionnement du couple (DCI, CPQ, PFB), ainsi que des liens avec des variables socio-démographiques et des traits de personnalité mesurés à l'aide du NEO-FFI. Les résultats sont discutés à la lumière de leurs implications théoriques et pratiques.
Resumo:
Une lésion nerveuse périphérique est susceptible d'engendrer une douleur neuropathique caractérisée par des changements d'expression génique dans les neurones nociceptifs des ganglions spinaux. Parmi ces modifications, on note une augmentation transcriptionnelle du gène codant pour la guanosine triphosphate cyclohydrolase 1 (GCH1) considérée comme modulateur clé des douleurs neuropathiques périphériques1. La surexpression de la GCH1 induit alors une hausse de la concentration de la tétrahydrobiopterin (BH4), un cofacteur essentiel pour la production de catécholamines, de sérotonine et d'oxide nitrique dans les ganglions spinaux. La surexpression de ce cofacteur induit la production de ces neurotransmetteurs et contribue à l'augmentation de la sensibilité douloureuse. Dans ce travail, j'ai modulé l'expression de GCH1 par l'utilisation d'un vecteur viral adéno-associé. Tout d'abord, j'ai testé in vitro dans des cellules PC12 différentes molécules d'ARN interfèrent permettant la régulation négative de GCH1. Les cellules PC 12 contiennent constitutionnellement la GCH1 et sont donc intéressantes afin de tester et sélectionner un plasmide permettant une régulation négative efficace de cette molécule in vitro. Cela m'a permis de choisir après sélection de cellules par FACS et quantification protéique par Western blot les meilleurs sh-ARN à utiliser tant pour la régulation négative de GCH1 que pour le vecteur contrôle. J'ai ensuite co- transfecté ces plasmides avec le plasmide pDF6 dans des cellules HEK293T pour la production de mon vecteur viral (rAAV2/6) permettant la régulation négative de la GCH1 ainsi que de mon vecteur contrôle. Après avoir étudié deux voies d'injection chez le rat (dans le nerf sciatique et en intrathécal), j'ai retenu la voie intrathécale comme ayant le meilleur taux de transduction de mon vecteur viral au niveau des ganglions spinaux. Utiliser cette voie d'injection pour mon vecteur permet de cibler plus particulièrement les neurones nociceptifs des ganglions spinaux. J'ai ensuite étudié la modulation de la GCH1 et sa répercussion sur le développement et le maintien des douleurs neuropathiques dans le modèle animal « spared nerve injury » (SNI). Je n'ai pas obtenu de diminution de douleur ni au niveau comportemental ni au niveau moléculaire chez le rat. Ayant répété l'expérience chez la souris, j'ai obtenu une diminution significative de l'expression de la GCH1 au niveau de l'ARN messager. Je n'ai pas étudié l'efficacité de mon vecteur in vivo chez la souris car un autre groupe m'a devancé dans cette expérience et a publié une étude similaire montrant une régulation négative et efficace de la GCH1 sur les symptômes de douleur neuropathique. Mes résultats, associés à cette publication, démontrent la validité de mon hypothèse de départ et ouvrent de nouvelles perspectives thérapeutiques en prenant comme cible la production de BH4.
Resumo:
Nos travaux traitent des dispositifs d'orientation scolaire et professionnelle (DOSP) voués au soutien et à l'accompagnement de jeunes inégalement dotés dans leur parcours d'orientation au moment de la transition aux études supérieures. Des innovations méthodologiques étaient requises afin d'étudier cette question dans la perspective théorique de justice sociale d'Amartya Sen. Nous avons procédé à l'élaboration et à la vérification des qualités scientifiques d'outils de récolte de données dans une étude comparative internationale. Notre étude multicas se fonde sur cinq pays (Burkina Faso, Canada, France, Turquie, Suisse). Dans chacun des cas, des données qualitatives ont été récoltées sur le système éducatif, l'organisation des services et les prestations de service d'orientation. Vingt-six entretiens semi-structurés ont été menés auprès de responsables de service, de conseillères et conseillers d'orientation psychologues ainsi que de jeunes en transition vers le supérieur. La validité interne ou crédibilité des outils a été assurée tout au long de l'élaboration et des révisions du protocole de recherche, empruntant les procédés propres à l'étude de cas. La vérification de la validité de construit et de la validité externe ou transférabilité, effectuée à partir des données de la préenquête, a mis en lumière la valeur heuristique de nos outils. Au final, le cadre comparatif des DOSP, présenté en annexe, compte parmi les toutes premières formes d'opérationnalisation du cadre théorique de Sen au champ de l'orientation.
Resumo:
Malgré une société de plus en plus tolérante, la discrimination reste un problème d'actualité. Pour expliquer la formation des comportements discriminatoires, la recherche en psychologie sociale a traditionnellement étudié la discrimination comme un phénomène intergroupe, notamment à travers la théorie de l'identité sociale (Tajfel & Turner, 1979). Toutefois, cette approche ne permet pas de comprendre comment des individus peuvent de nos jours s'engager dans des comportements discriminatoires tout en sachant que ces actes sont répréhensibles socialement et pénalement. C'est à cette problématique que nous nous sommes attelés dans la présente recherche. De nombreuses études ont mis en évidence le fait que des individus étaient prêts à commettre des actes discriminatoires pour autant qu'ils puissent les justifier (Crandall & Eshleman, 2003). Nous proposons de contribuer à la compréhension de ce phénomène grâce au concept de désengagement moral définit comme le processus par lequel des individus justifient leurs comportements immoraux pour les rendre acceptable. Ce concept a initialement été développé de manière conceptuelle par Bandura (1990) pour comprendre les processus cognitifs amenant des individus à se comporter de manière immorale. Dans le cadre de notre recherche, nous proposons de développer le concept de désengagement moral pour des actes discriminatoires (DMD) ainsi que sa mesure. Plus particulièrement, nous proposons de conceptualiser le DMD comme une différence individuelle permettant aux individus de s'engager dans des comportements discriminatoires en toute impunité à travers un processus anticipatoire de justification. Ces justifications visent à prouver le bien-fondé des actes de discrimination envisagés, ainsi perçus comme bénins, acceptables, voire désirables. Deux des trois étapes envisagées pour le développement de la mesure ont déjà été réalisées. Les résultats obtenus sont prometteurs quant à la structure et la validité de la mesure.
Resumo:
L'environnement construit contribue à influencer la santé des individus, selon l'Organisation Mondiale de la Santé. L'architecture des établissements médico-sociaux (EMS) peut, elle aussi, produire un impact sur le bien-être et la satisfaction des résident-e-s et des autres usagers. Dans le canton de Vaud, des normes architecturales de construction des EMS (les Directives et recommandations architecturales des établissements médico-sociaux, DAEMS) ont été créées en 2003 afin d'optimiser la conception des EMS par rapport aux besoins des usagers. Notre étude a pour but de vérifier si les EMS construits selon les DAEMS sont associés avec une satisfaction accrue des usagers par rapport aux EMS qui n'ont pas été construits selon ces directives. "Le but de la présente étude est de vérifier si le fait de construire les EMS selon les DAEMS est associé avec une plus grande satisfaction chez les usagers par rapport aux EMS qui n'ont pas été construits selon les DAEMS. Nous avons effectué une comparaison de la satisfaction auprès des trois-publics qui sont les principaux usagers des EMS, à savoir les résident-e-s, leurs proches de référence, et les professionnel-le-s en EMS. Trente EMS ont participé à l'étude, à savoir dix construits selon les DAEMS (EMS « DAEMS »), et vingt qui n'ont pas été construits selon les DAEMS (EMS « non-DAEMS »). Ce rapport a été défini pour garantir une bonne validité statistique des résultats"
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.