415 resultados para Modèle prédictif Multivarié
Resumo:
La désinfection des mains avant d'effectuer des soins est un acte indispensable en médecine clinique pour limiter le risque de transmission de germes. Après utilisation des produits désinfectants mis à disposition dans les services de soins, il se dégage une odeur alcoolique forte et désagréable, liée directement aux alcools antimicrobiens des solutions. Une étude a montré qu'une exposition aiguë et brève aux vapeurs d'éthanol et isopropanol chez des enfants prématurés pouvait être mise en relation avec des changements hémodynamiques au niveau de la zone olfactive orbito-frontale [1]. Aucune norme réglementant les concentrations de vapeurs d'éthanol ou isopropanol auxquelles les nouveau-nés peuvent être exposés n'existe. Cette thèse avait pour but d'étudier l'exposition des nouveaux nés soignés dans des incubateurs à des vapeurs d'alcool (éthanol et isopropanol). Elle était composée de 2 parties qui ont été publiées dans 2 articles différents et qui représentent le travail de doctorat [2-3]. La 1ère partie était une étude observationnelle d'une série de cas [2], Des mesures des concentrations des vapeurs d'alcool ont été effectuées auprès de 9 nouveau-nés soignés dans des incubateurs de même modèle au sein de l'unité de néonatologie du Centre Hospitalier Universitaire Vaudois à Lausanne. Sur 4 heures, les concentrations instantanées et moyennes ont été mesurées par deux techniques (photoionisation et respectivement chromatographic après absorption sur charbon actif). Onze analyses ont été effectuées en 2004-2005. Elles ont révélé des taux très variables d'éthanol et d'isopropanol dans les incubateurs (avec des valeurs maximales de 1982 ppm pour l'isopropanol et 906 ppm pour l'éthanol) correspondant aux introduction de mains fraîchement désinfectées dans les isolettes. Les concentrations moyennes variaient entre 9.8 ppm et plus de 61 ppm pour l'éthanol et < 0.01 ppm et 119 ppm pour l'isopropanol. La 2e partie a été réalisée en collaboration avec le PD Dr D. Vernez de l'Institut Universitaire Romand de Santé au Travail [3], Un modèle théorique prédictif des concentrations alcooliques dans des incubateurs pour nouveau-nés a été développé. Des séries de mesures standardisées des variations des concentrations alcooliques dans un incubateur sans patient ont été effectuées en changeant trois variables: 1) le renouvellement de l'air dans l'incubateur en variant le nombre de portes ouvertes, 2) la quantité de solution alcoolique versée sur les mains avant de les introduire dans l'incubateur 3) le temps de séchage des mains après désinfection et avant de les introduire dans l'incubateur. La modélisation a permis de décrire la cinétique des concentrations d'alcool dans les incubateurs et d'évaluer les pistes potentielles pour diminuer les risques d'exposition des nouveau-nés à ces vapeurs dans leurs incubateurs. En conclusion, la 1 ère partie a mis en évidence, pour la première fois, que des nouveau- nés soignés en incubateurs peuvent être exposés à des vapeurs d'alcool. Comme il η y a aucune norme d'exposition pour cette population et que les seules limites d'exposition existantes sont destinées à des travailleurs adultes, aucune conclusion précise ne peut être avancée sur les risques toxicologiques. L'exposition à des vapeurs polluantes d'un nouveau-né à terme ou prématuré, en plein développement neuro-sensoriel, devrait toutefois, à priori, être évitée. La 2ème partie permet de proposer des pistes pratiques pour diminuer les concentrations des vapeurs d'alcool dans les incubateurs: respecter le temps de séchage des mains après leur désinfection et avant de les introduire dans les isolettes et/ou préférer un désinfectant alcoolique à faible temps d'évaporation.
Resumo:
The aim of this computerized simulation model is to provide an estimate of the number of beds used by a population, taking into accounts important determining factors. These factors are demographic data of the deserved population, hospitalization rates, hospital case-mix and length of stay; these parameters can be taken either from observed data or from scenarii. As an example, the projected evolution of the number of beds in Canton Vaud for the period 1893-2010 is presented.
Resumo:
Le cytomégalovirus (CMV) est le pathogène viral le plus important après transplantation d'organe. Le risque de développer une maladie à CMV chez les patients transplantés dépend d'une combinaison de facteurs de l'hôte et de facteurs viraux. Par exemple, il est bien établi que le status sérologique à CMV du donneur et du receveur est un facteur de risque très important pour développer une maladie à CMV, notamment chez le sous-groupe de patients donneurs positifs / receveurs négatifs (D+/R-). Par contre, il n'est pas complètement élucidé si des polymorphismes viraux spécifiques peuvent influencer l'évolution en la réponse thérapeutique chez des patients avec une infection à CMV. Nous avons évalué le rôle des différents génotypes de la glycoprotéine Β (gB) du CMV sur l'évolution clinique et virologique de la maladie à CMV chez des patients transplantés d'organe sous traitement antiviral.¦Pour ce faire, nous avons étudié 239 patients transplantés d'organe inclus dans une étude multicentrique évaluant deux médicaments antiviraux utilisés comme traitement de la maladie à CMV. Le génotypage de la gB du CMV a été réalisé en utilisant une PCR quantitative en temps réel au début du traitement antiviral. Les polymorphismes de la gB du CMV permettent la discrimination de quatre génotypes distincts (gBl, gB2, gB3 et gB4). Nous avons défini une infection mixte comme la présence simultanée de plus d'un génotype chez un patient avec maladie à CMV.¦La prévalence des différents génotypes de la gB a été 26% pour la gBl, 10% pour la gB2, 10% pour la gB3, et 5% pour la gB4, alors que les infections mixtes étaient présentes dans 49% des cas. Les patients D+/R+ présentaient plus fréquemment une infection mixte que les patients D+/R- (40% vs 12%, ρ <0.001). Les patients avec une infection mixte présentaient une médiane de la charge virale à CMV plus élevée et un temps d'éradication virale plus long comparé à des patients avec une infection par un génotype unique (p=0.005 et p=0.026, respectivement). Dans un modèle multivarié, les infections mixtes étaient un prédicteur important de l'échec de l'éradication de virus au jour 21 du début du traitement antiviral (rapport de côtes entre l'infection mixte vs. infection par un génotype unique = 2.66, intervalle de confiance à 95%= 1.31 à 5.38, p= 0.007). Aucun effet du génotype gB sur le développement d'une récidive clinique ou virologique de l'infection à CMV a été observé.¦Ces résultats indiquent qu'aucun génotype spécifique de la gB ne semble conférer un avantage de virulence au CMV. Cependant, les infections mixtes avec plusieurs génotypes de la gB sont associées à une charge virale plus élevée et à un retard de l'éradication virale suite au traitement antiviral.
Resumo:
Usefulness of a predictive score in subarachnoid hemorrhage diagnosis Nearly half of the patients with non-traumatic subarachnoid hemorrhage (SAH) present with no neurological signs, inducing clinical underestimation of the gravity of their affection. As the outcome of aneurismal SAH is highly dependant on the initial neurological status and the recurrence of untreated hemorrhagic events, these neurologically intact patients stand to suffer the most from delayed diagnosis. Although there is currently no validated predictive score that reliably identifies SAH-induced headache, a combination of clinical criteria derived from a cohort of sudden-onset headache patients should allow risk stratification and identification of those patients requiring further investigation.
Resumo:
L'idée de complémentarité de certaines épreuves projectives s'est dessinée dès les années 1960, telles que Rorschach - test du Village, Rorschach - CAT et enfin Rorschach - TAT. L'essentiel des dispositifs projectifs mobilise les épreuves de Rorschach et de TAT dont la complémentarité a été largement pointée, notamment, par Anzieu et Chabert (1983), Chabert (1998), Roman (2006, 2007, 2009) et Emmanuelli et Azoulay (2001, 2008, 2009). Les épreuves de Hand-Test, Rorschach et TAT opèrent selon des dynamiques différentes à partir de consignes, sorte d'« injonction à imaginer » (Roman, 2008). Le défi méthodologique et épistémologique est d'envisager une complémentarité entre ces trois épreuves projectives, complémentarité qui ne va pas de soi dans la mesure où le Hand-Test a été pensé à partir du modèle de l'Analyse Structurale, le Rorschach et le TAT dans une perspective psychodynamique. L'enjeu du défi est de parvenir à se dégager du modèle de l'Analyse Structurale, d'une dimension déterministe et inscrire le Hand-Test dans une dimension processuelle d'une part, et de croiser ces trois épreuves afin de parvenir à mettre en avant les ressources du sujet quant à l'émergence de potentialités de transformations bien souvent, trop souvent, reléguées au second plan, voire négligées, lors de la prise en charge institutionnelle d'autre part. Ainsi, l'approche de la complémentarité des épreuves se trouve au service d'une compréhension de l'évolution du rapport à l'agir chez les adolescents. L'écart qui se donne à voir entre la conception des épreuves projectives envisagées dans une perspective psychodynamique et la manière d'appréhender le Hand-Test constitue le défi méthodologique et épistémologique que nous proposons de discuter.
Resumo:
Les modèles hydrologiques développés pour les pluies extrêmes de type PMP sont difficiles à paramétrer en raison du manque de données disponibles pour ces évènements et de la complexité du terrain. Cet article présente les processus et les résultats de l'ajustement des paramètres pour un modèle hydrologique distribué. Ce modèle à une échelle fine a été développé pour l'estimation des crues maximales probables dans le cas d'une PMP. Le calcul effectué pour deux bassins versants test suisses et pour deux épisodes d'orages d'été concerne l'estimation des paramètres du modèle, divisé en deux groupes. La première concerne le calcul des vitesses des écoulements et l'autre la détermination de la capacité d'infiltration initiale et finale pour chaque type de sol. Les résultats validés avec l'équation de Nash montrent une bonne corrélation entre les débits simulés et ceux observés.
Resumo:
La thèse essaie de montrer comment il est possible d'offrir une implémentation fonctionnelle d'un agent doté d'une conscience (psychologique). Une première étape étudie les différentes approches, définitions et théories de la conscience proposées par la littérature. Cette étude dégage plus particulièrement un modèle psychologique qui offre une modélisation des fonctionnalités de la conscience, de ses éléments constitutifs et des relations entre ces éléments. Cet effort de formalisation permet d'identifier les corrélations computionnelles du modèle ouvrant ainsi la voie à une implémentation fonctionnelle de la conscience. Une seconde étape réuni les outils et méthodes informatiques existants en vue de procéder à une telle implémentation. En particulier, celle-ci repose sur un modèle de communication permettant d'élaborer une machine virtuelle basée sur des processus concurrents synchronisés. La troisième étape consiste à implémenter les corrélations computationnelles dont l'une est une fonction de délibération qui, après une analyse itérative de son état et de son environnement (machine à état), aboutit à la sélection d'une action. Une deuxième fonction est la formation de contextes, autrement dit l'apprentissage d'automatismes, consistant à compiler la délibération. Cette compilation s'opère grâce à un processus concurrent reflétant le processus de délibération, dotant ainsi l'agent de la capacité d'observer son propre fonctionnement. La thèse se conclut en proposant quelques axes de recherches et d'applications futures susceptibles de prolonger le travail.
Resumo:
Le but essentiel de notre travail a été d?étudier la capacité du foie, premier organe de métabolisation des xénobiotiques, à dégrader la cocaïne en présence d?éthanol, à l?aide de deux modèles expérimentaux, à savoir un modèle cellulaire (les hépatocytes de rat en suspension) et un modèle acellulaire (modèle reconstitué in vitro à partir d?enzymes purifiées de foie humain). La première partie a pour objectifs de rechercher les voies de métabolisation de la cocaïne qui sont inhibées et / ou stimulées en présence d?éthanol, sur hépatocytes isolés de rat. Dans ce but, une méthode originale permettant de séparer et de quantifier simultanément la cocaïne, le cocaéthylène et huit de leurs métabolites respectifs a été développée par Chromatographie Phase Gazeuse couplée à la Spectrométrie de Masse (CPG / SM). Nos résultats préliminaires indiquent que l?éthanol aux trois concentrations testées (20, 40 et 80 mM) n?a aucun effet sur la cinétique de métabolisation de la cocaïne. Notre étude confirme que l?addition d?éthanol à des cellules hépatiques de rat en suspension supplémentées en cocaïne résulte en la formation précoce de benzoylecgonine et de cocaéthylène. L?apparition retardée d?ecgonine méthyl ester démontre l?activation d?une deuxième voie de détoxification. La production tardive d?ecgonine indique une dégradation de la benzoylecgonine et de l?ecgonine méthyl ester. De plus, la voie d?oxydation intervenant dans l?induction du stress oxydant en produisant de la norcocaïne est tardivement stimulée. Enfin, notre étude montre une métabolisation complète de la concentration initiale en éthanol par les hépatocytes de rat en suspension. La deuxième partie a pour but de déterminer s?il existe d?autres enzymes que les carboxylesterases formes 1 et 2 humaines ayant une capacité à métaboliser la cocaïne seule ou associée à de l?éthanol. Pour ce faire, une méthode de micropurification par chromatographie liquide (Smart System®) a été mise au point. Dans le cadre de nos dosages in situ de la cocaïne, du cocaéthylène, de la benzoylecgonine, de l?acide benzoïque et de la lidocaïne, une technique par Chromatographie Liquide Haute Performance couplée à une Détection par Barrette de Diode (CLHP / DBD) et une méthode de dosage de l?éthanol par Chromatographie Phase Gazeuse couplée à une Détection par Ionisation de Flamme équipée d?un injecteur à espace de tête (espace de tête CPG / DIF) ont été développées. La procédure de purification nous a permis de suspecter la présence d?autres enzymes que les carboxylesterases formes 1 et 2 de foie humain impliquées dans le métabolisme de la cocaïne et déjà isolées. A partir d?un modèle enzymatique reconstitué in vitro, nos résultats préliminaires indiquent que d?autres esterases que les formes 1 et 2 de foie humain sont impliquées dans l?élimination de la cocaïne, produisant benzoylecgonine et ecgonine méthyl ester. De plus, nous avons montré que les sensibilités de ces enzymes à l?éthanol sont variables.<br/><br/>The main purpose of our work was to study the ability of the liver, as the first organ to metabolise xenobiotic substances, to degrade cocaine in the presence of ethanol. In order to do this, we used two experimental models, namely a cellular model (rat liver cells in suspension) and an a-cellular model (model reconstructed in vitro from purified human liver enzymes). The purpose of the first part of our study was to look for cocaine metabolising processes which were inhibited and / or stimulated by the presence of ethanol, in isolated rat liver cells. With this aim in mind, an original method for simultaneously separating and quantifying cocaine, cocaethylene and eight of their respective metabolites was developed by Vapour Phase Chromatography coupled with Mass Spectrometry (VPC / MS). Our preliminary results point out that ethanol at three tested concentrations (20, 40 et 80 mM) have no effect on the kinetic of metabolisation of cocaine. Our study confirms that the addition of alcohol to rat liver cells in suspension, supplemented with cocaine, results in the premature formation of ecgonine benzoyl ester and cocaethylene. The delayed appearance of ecgonine methyl ester shows that a second detoxification process is activated. The delayed production of ecgonine indicates a degradation of the ecgonine benzoyl ester and the ecgonine methyl ester. Moreover, the oxidising process which occurs during the induction of the oxidising stress, producing norcocaine, is stimulated at a late stage. Finally, our study shows the complete metabolisation of the initial alcohol concentration by the rat liver cells in suspension. The second part consisted in determining if enzymes other than human carboxylesterases 1 and 2, able to metabolise cocaine on its own or with alcohol, existed. To do this, a micropurification method us ing liquid phase chromatography (Smart System®) was developed. A technique based on High Performance Liquid Chromatography coupled with a Diode Array Detection (HPLC / DAD) in the in situ proportioning of cocaine, cocaethylene, ecgonine benzoyl ester, benzoic acid and lidocaine, and a method for proportioning alcohol by quantifying the head space using Vapour Phase Chromatography coupled with a Flame Ionisation Detection (head space VPC / FID) were used. The purification procedure pointed to the presence of enzymes other than the human liver carboxylesterases, forms 1 and 2, involved in the metabolism of cocaine and already isolated. The preliminary results drawn from an enzymatic model reconstructed in vitro indicate that human liver carboxylesterases, other than forms 1 and 2, are involved in the elimination of cocaine, producing ecgonine benzoyl ester and ecgonine methyl ester. Moreover, we have shown that the sensitivity of these enzymes to alcohol is variable.
Resumo:
La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.