880 resultados para Hypothèse ponctuelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'incontinence urinaire (IU) se définit comme une élimination involontaire d'urine. Le programme transverse des Hôpitaux universitaires de Genève (HUG) sur la prévention et les traitements de I'IU avance l'hypothèse qu'environ 400'000 personnes, en Suisse en souf- frent. Parmi les personnes hospitalisées en réhabilitation et gériatrie, la proportion d'IU at- teindrait même 56%. Cette proportion s'élève encore dans des services de long séjour pour atteindre 70%. Malgré l'inconfort causé par l'IU et son lien avec un déclin fonctionnel, la litté- rature démontre que l'IU reste trop peu reconnue par les infirmières en soins gériatriques. Cette étude de type quantitatif descriptif corrélationnel vise à mesurer la prévalence de l'IU lors d'une admission en gériatrie et à évaluer le niveau d'implication infirmière dans la prise en compte de celle-ci. Le modèle de Classification Internationale du fonctionnement du han- dicap de la santé de l'Organisation mondiale de la santé est utilisé. L'implication infirmière est caractérisée par la présence explicite dans les dossiers patients d'un diagnostic infirmier, d'une prescription infirmière ou d'une intervention infirmière relatifs à l'IU. Après analyse de 100 dossiers sélectionnés au hasard au sein d'un département gériatrique d'un hôpital uni- versitaire, les résultats indiquent une prévalence de 72% d'incontinence. La majorité des personnes touchées sont des femmes (64%). Dans l'ensemble des dossiers de personnes présentant IU, on retrouve que 1,4% ont un diagnostic infirmier, 54% une prescription infir- mière, et 72%, une intervention infirmière. La grande majorité des interventions sont de type palliatif. Des corrélations montrent une association entre l'IU et l'âge et entre les préoccupa- tions infirmières et la raison principale d'admission. Ces résultats sont discutés en lien avec la littérature et des recommandations sont proposées pour améliorer la pratique clinique et favoriser la poursuite de la recherche infirmière dans ce domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique: Les naissances prématurées sont des situations cliniques à risque pour l'enfant. Celui-ci arrive au monde avec une capacité amoindrie à être autonome, que ce soit, par exemple, au niveau respiratoire ou de la régulation thermique. Lors de leur séjour aux soins intensifs, les enfants prématurés subissent des interventions qui peuvent être douloureuses, ils sont souvent manipulés et exposés à des bruits et des lumières intenses; ceci peut induire un stress important pour l'enfant qui est déjà vulnérable du fait de sa prématurité. Lorsque confronté à une situation stressante, l'organisme humain réagit par l'activation de l'axe hypothalamo-hypophysio-surrénalien (HHS). Une des hormones principales sécrétées par l'axe HHS est le cortisol. Plusieurs études suggèrent que le cortisol, lorsque sécrété en quantités importantes, risque d'altérer la matière grise, en induisant une diminution de volume, notamment celui de l'hippocampe (Plotsky & Meaney, 1993; Sapolsky, 2000; McEwen, 1994; 2000; Sandman et al., 1994; Meaney et al., 1991;1996). Ces altérations auraient comme effet un dérèglement de l'axe HHS (Heim & Nemeroff, 1999) avec comme conséquence une variation de la réponse au stress mais aussi de la mémoire et de la régulation émotionnelle (Stam et al., 2000 et Siegel, 1998). Objectifs: Nous allons nous intéresser aux grands prématurés nés à moins de 32 semaines de gestations selon leur exposition à des interventions stressantes et douloureuses ou des complications postnatales. Nous allons étudier l'impact qu'un stress modéré ou sévère sur un prématuré a sur la réponse de l'axe HHS et sur sa régulation émotionnelle lorsque celui-ci est confronté à des situations de stress modéré ultérieurement, plus précisément à six mois d'age corrigé. Méthodologie: Dans le cadre de l'étude «Stress néonatal et réactivité au stress ultérieur: effets préventifs d'une intervention précoce» (SNF 3200 BO-104230) menée au SUPEA en collaboration avec le service de néonatologie du DMCP, le Lab-TAB (Laboratory Temperament Assessment Battery, prelocomotor version 3.1, Goldsmith & Rothbart, 1999) a été utilisé comme outil pour analyser le tempérament d'un enfant par l'analyse de ses réactions émotionnelles à certaines situations. L'enfant, qui était filmé, a été confronté à des mises en scène conçues pour susciter diverses émotions comme la peur, la colère, la frustration, la curiosité ou le plaisir. Un système de codage dérivé de celui du Lab-TAB sera utilisé par deux codeurs différents pour analyser les réactions émotionnelles des enfants. Les taux de cortisol sécrétés ont été mesurés dans la salive de l'enfant. La mesure du cortisol libre dans la salive montre une bonne corrélation avec le cortisol plasmatique ; plusieurs prélèvements de salive ont été faits avant, pendant et après la situation de stress. Les situations filmées n'ont pas encore été codés, ni les taux analysés par l'équipe de la SUPEA. Nous allons observer 40 vidéos, 20 d'enfants nés prématurément et 20 d'enfants nés à terme comme groupe contrôle, et examiner la réponse endocrinienne au stress ainsi que leur régulation émotionnelle au niveau de leur comportement comme l'excitation, les pleurs, l'évitement... Hypothèse : L'intensité de l'exposition au stress postnatal chez l'enfant prématuré induirait des variations de la réponse de l'axe HHS mais aussi de la régulation émotionnelle. Il n'est pas clair selon la littérature actuelle si les variations des réponses de l'axe HHS dues à l'exposition à un stress précoce vont dans les sens de l'hypo- ou l'hyperréactivité, et si cette réponse corrèle avec la régulation émotionnelle au niveau des comportements. C'est ce que l'analyse des données nous permettra de déterminer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : La douleur aux soins intensifs adultes est un problème majeur auquel l'équipe soignante est confrontée quotidiennement. Elle nécessite un traitement adéquat et, pour ce faire, une évaluation systématique et précise est requise. Les patients hospitalisés aux soins intensifs sont vulnérables de par leurs pathologies et les multiples stimulations douloureuses auxquelles ils sont exposés. L'évaluation de la douleur est rendue complexe par le fait qu'ils ne peuvent pas la communiquer verbalement. L'utilisation d'échelles d'évaluation de la douleur est recommandée, mais les scores obtenus doivent être interprétés et contextualisés. Evaluer la douleur chez ce type de patient demande aux infirmières des connaissances et compétences élevées, à même d'être mobilisées lors d'un processus complexe lié au raisonnement clinique. But : l'objectif de cette étude descriptive observationnelle est de décrire les indicateurs influençant le raisonnement clinique de l'infirmière1 experte lors de l'évaluation de la douleur chez les patients ventilés, sédatés et non communicants aux soins intensifs. Les résultats produisent une meilleure compréhension de l'évaluation et de la gestion de la douleur en pratique et, finalement, participent à l'amélioration de la qualité de son évaluation et de sa gestion. Méthode : un échantillon de convenance de sept infirmières expertes travaillant dans une unité de soins intensifs d'un hôpital universitaire de Suisse Romande a été constitué pour cette étude. Les données ont été récoltées en situation réelle lors de l'évaluation de la douleur de sept patients en utilisant la méthode du think aloud, par une observation non participative et par un entretien semistructuré. Les données ont été analysées en utilisant une méthode d'analyse de contenu déductive sur la base d'un modèle de raisonnement clinique, comprenant les suivantes: le contexte, la situation du patient, la génération d'hypothèses, les actions infirmières et l'évaluation de l'action. Résultats : la moyenne d'expérience des infirmières participantes est de 15 ans (ÉT 4.5) en soins et de 7.85 ans (ÉT 3.1) en soins intensifs. Sept patients étaient ventilés, sédatés et non communicants ayant une moyenne de score APACHE II2 de 19. Les résultats montrent que les infirmières se basent principalement sur des indicateurs physiologiques pour évaluer la douleur. Elles cherchent à prévenir la douleur pour le patient. Elles se réfèrent régulièrement à des situations déjà vécues (pattern). Elles mobilisent leurs connaissances pour pondérer l'agitation liée à la douleur ou à d'autres causes en générant des hypothèses, puis réalisent un test antalgique pour confirmer ou infirmer l'hypothèse retenue. Conclusion : le contexte clinique joue un rôle important dans le raisonnement clinique de l'infirmière et la gestion de la douleur. Pour faciliter cette tâche, l'évaluation de la douleur doit être combinée avec l'évaluation de la situation clinique du patient et du niveau de sédation des patients de soins intensifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le retard de croissance intra-utérin (RCIU) est défini comme une incapacité du foetus à atteindre son plein potentiel de croissance. C'est une complication fréquente (affectant ~8% des grossesses), associée à un risque accru de mortalité et morbidité périnatales et de maladies chroniques à l'âge adulte, telles que les maladies coronariennes, l'hypertension, ou le diabète. Une croissance foetale adéquate est déterminée principalement par la disponibilité en oxygène et nutriments apportés au foetus par la circulation ombilico-placentaire. Chez l'homme, le tonus vasculaire ombilical est régulé majoritairement par la voie du monoxyde d'azote (NO)/GMPc. Nous avons émis l'hypothèse que le RCIU pourrait être associé à des altérations dans la régulation de la circulation ombilicale, en particulier dans la voie du NO/GMPc. Méthodes: Cette étude a été conçue pour identifier dans des cordons ombilicaux, les changements structurels, fonctionnels et moléculaires survenant en cas de RCIU, en particulier dans la veine om-bilicale. Résultats: De façon générale, le diamètre du cordon ombilical était significativement réduit chez les nouveau-nés avec RCIU par rapport aux contrôles. Les mesures histomorphométriques ont mis en évidence une diminution significative de la surface transversale totale ainsi que de muscle lisse dans la veine ombilicale en cas de RCIU. Les études pharmacologiques effectuées sur des anneaux vasculaires de veines ombilicales ont montré une diminution de la tension maximale induite par des vasoconstricteurs chez les garçons avec RCIU, et une réduction significative de la relaxation induite par le NO chez les filles avec RCIU. Cette altération de la relaxation s'accompagne de modifications de plusieurs composants de la voie du NO/GMPc au niveau du muscle lisse de la veine ombilicale des filles avec RCIU. Enfin l'addition d'un inhibiteur non-spécifique des phosphodiesterases (PDEs) a permis d'améliorer la réponse au NO dans tous les groupes et surtout de compenser la réduction de la relaxation induite par le NO chez les filles avec RCIU. Conclusion: Cette étude a permis de mettre en évidence des modifications structurelles dans le cordon ombilical de nouveau-nés présentant un RCIU, ainsi que des changements fonctionnels et moléculaires dans la veine ombilicale, en particulier dans la voie du NO/GMPc, qui pourraient contribuer au développement du RCIU. L'effet bénéfique de l'inhibition des PDEs sur la relaxation suggère qu'elles pourraient constituer des cibles thérapeutiques potentielles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wastewater-based epidemiology consists in acquiring relevant information about the lifestyle and health status of the population through the analysis of wastewater samples collected at the influent of a wastewater treatment plant. Whilst being a very young discipline, it has experienced an astonishing development since its firs application in 2005. The possibility to gather community-wide information about drug use has been among the major field of application. The wide resonance of the first results sparked the interest of scientists from various disciplines. Since then, research has broadened in innumerable directions. Although being praised as a revolutionary approach, there was a need to critically assess its added value, with regard to the existing indicators used to monitor illicit drug use. The main, and explicit, objective of this research was to evaluate the added value of wastewater-based epidemiology with regards to two particular, although interconnected, dimensions of illicit drug use. The first is related to trying to understand the added value of the discipline from an epidemiological, or societal, perspective. In other terms, to evaluate if and how it completes our current vision about the extent of illicit drug use at the population level, and if it can guide the planning of future prevention measures and drug policies. The second dimension is the criminal one, with a particular focus on the networks which develop around the large demand in illicit drugs. The goal here was to assess if wastewater-based epidemiology, combined to indicators stemming from the epidemiological dimension, could provide additional clues about the structure of drug distribution networks and the size of their market. This research had also an implicit objective, which focused on initiating the path of wastewater- based epidemiology at the Ecole des Sciences Criminelles of the University of Lausanne. This consisted in gathering the necessary knowledge about the collection, preparation, and analysis of wastewater samples and, most importantly, to understand how to interpret the acquired data and produce useful information. In the first phase of this research, it was possible to determine that ammonium loads, measured directly in the wastewater stream, could be used to monitor the dynamics of the population served by the wastewater treatment plant. Furthermore, it was shown that on the long term, the population did not have a substantial impact on consumption patterns measured through wastewater analysis. Focussing on methadone, for which precise prescription data was available, it was possible to show that reliable consumption estimates could be obtained via wastewater analysis. This allowed to validate the selected sampling strategy, which was then used to monitor the consumption of heroin, through the measurement of morphine. The latter, in combination to prescription and sales data, provided estimates of heroin consumption in line with other indicators. These results, combined to epidemiological data, highlighted the good correspondence between measurements and expectations and, furthermore, suggested that the dark figure of heroin users evading harm-reduction programs, which would thus not be measured by conventional indicators, is likely limited. In the third part, which consisted in a collaborative study aiming at extensively investigating geographical differences in drug use, wastewater analysis was shown to be a useful complement to existing indicators. In particular for stigmatised drugs, such as cocaine and heroin, it allowed to decipher the complex picture derived from surveys and crime statistics. Globally, it provided relevant information to better understand the drug market, both from an epidemiological and repressive perspective. The fourth part focused on cannabis and on the potential of combining wastewater and survey data to overcome some of their respective limitations. Using a hierarchical inference model, it was possible to refine current estimates of cannabis prevalence in the metropolitan area of Lausanne. Wastewater results suggested that the actual prevalence is substantially higher compared to existing figures, thus supporting the common belief that surveys tend to underestimate cannabis use. Whilst being affected by several biases, the information collected through surveys allowed to overcome some of the limitations linked to the analysis of cannabis markers in wastewater (i.e., stability and limited excretion data). These findings highlighted the importance and utility of combining wastewater-based epidemiology to existing indicators about drug use. Similarly, the fifth part of the research was centred on assessing the potential uses of wastewater-based epidemiology from a law enforcement perspective. Through three concrete examples, it was shown that results from wastewater analysis can be used to produce highly relevant intelligence, allowing drug enforcement to assess the structure and operations of drug distribution networks and, ultimately, guide their decisions at the tactical and/or operational level. Finally, the potential to implement wastewater-based epidemiology to monitor the use of harmful, prohibited and counterfeit pharmaceuticals was illustrated through the analysis of sibutramine, and its urinary metabolite, in wastewater samples. The results of this research have highlighted that wastewater-based epidemiology is a useful and powerful approach with numerous scopes. Faced with the complexity of measuring a hidden phenomenon like illicit drug use, it is a major addition to the panoply of existing indicators. -- L'épidémiologie basée sur l'analyse des eaux usées (ou, selon sa définition anglaise, « wastewater-based epidemiology ») consiste en l'acquisition d'informations portant sur le mode de vie et l'état de santé d'une population via l'analyse d'échantillons d'eaux usées récoltés à l'entrée des stations d'épuration. Bien qu'il s'agisse d'une discipline récente, elle a vécu des développements importants depuis sa première mise en oeuvre en 2005, notamment dans le domaine de l'analyse des résidus de stupéfiants. Suite aux retombées médiatiques des premiers résultats de ces analyses de métabolites dans les eaux usées, de nombreux scientifiques provenant de différentes disciplines ont rejoint les rangs de cette nouvelle discipline en développant plusieurs axes de recherche distincts. Bien que reconnu pour son coté objectif et révolutionnaire, il était nécessaire d'évaluer sa valeur ajoutée en regard des indicateurs couramment utilisés pour mesurer la consommation de stupéfiants. En se focalisant sur deux dimensions spécifiques de la consommation de stupéfiants, l'objectif principal de cette recherche était focalisé sur l'évaluation de la valeur ajoutée de l'épidémiologie basée sur l'analyse des eaux usées. La première dimension abordée était celle épidémiologique ou sociétale. En d'autres termes, il s'agissait de comprendre si et comment l'analyse des eaux usées permettait de compléter la vision actuelle sur la problématique, ainsi que déterminer son utilité dans la planification des mesures préventives et des politiques en matière de stupéfiants actuelles et futures. La seconde dimension abordée était celle criminelle, en particulier, l'étude des réseaux qui se développent autour du trafic de produits stupéfiants. L'objectif était de déterminer si cette nouvelle approche combinée aux indicateurs conventionnels, fournissait de nouveaux indices quant à la structure et l'organisation des réseaux de distribution ainsi que sur les dimensions du marché. Cette recherche avait aussi un objectif implicite, développer et d'évaluer la mise en place de l'épidémiologie basée sur l'analyse des eaux usées. En particulier, il s'agissait d'acquérir les connaissances nécessaires quant à la manière de collecter, traiter et analyser des échantillons d'eaux usées, mais surtout, de comprendre comment interpréter les données afin d'en extraire les informations les plus pertinentes. Dans la première phase de cette recherche, il y pu être mis en évidence que les charges en ammonium, mesurées directement dans les eaux usées permettait de suivre la dynamique des mouvements de la population contributrice aux eaux usées de la station d'épuration de la zone étudiée. De plus, il a pu être démontré que, sur le long terme, les mouvements de la population n'avaient pas d'influence substantielle sur le pattern de consommation mesuré dans les eaux usées. En se focalisant sur la méthadone, une substance pour laquelle des données précises sur le nombre de prescriptions étaient disponibles, il a pu être démontré que des estimations exactes sur la consommation pouvaient être tirées de l'analyse des eaux usées. Ceci a permis de valider la stratégie d'échantillonnage adoptée, qui, par le bais de la morphine, a ensuite été utilisée pour suivre la consommation d'héroïne. Combinée aux données de vente et de prescription, l'analyse de la morphine a permis d'obtenir des estimations sur la consommation d'héroïne en accord avec des indicateurs conventionnels. Ces résultats, combinés aux données épidémiologiques ont permis de montrer une bonne adéquation entre les projections des deux approches et ainsi démontrer que le chiffre noir des consommateurs qui échappent aux mesures de réduction de risque, et qui ne seraient donc pas mesurés par ces indicateurs, est vraisemblablement limité. La troisième partie du travail a été réalisée dans le cadre d'une étude collaborative qui avait pour but d'investiguer la valeur ajoutée de l'analyse des eaux usées à mettre en évidence des différences géographiques dans la consommation de stupéfiants. En particulier pour des substances stigmatisées, telles la cocaïne et l'héroïne, l'approche a permis d'objectiver et de préciser la vision obtenue avec les indicateurs traditionnels du type sondages ou les statistiques policières. Globalement, l'analyse des eaux usées s'est montrée être un outil très utile pour mieux comprendre le marché des stupéfiants, à la fois sous l'angle épidémiologique et répressif. La quatrième partie du travail était focalisée sur la problématique du cannabis ainsi que sur le potentiel de combiner l'analyse des eaux usées aux données de sondage afin de surmonter, en partie, leurs limitations. En utilisant un modèle d'inférence hiérarchique, il a été possible d'affiner les actuelles estimations sur la prévalence de l'utilisation de cannabis dans la zone métropolitaine de la ville de Lausanne. Les résultats ont démontré que celle-ci est plus haute que ce que l'on s'attendait, confirmant ainsi l'hypothèse que les sondages ont tendance à sous-estimer la consommation de cannabis. Bien que biaisés, les données récoltées par les sondages ont permis de surmonter certaines des limitations liées à l'analyse des marqueurs du cannabis dans les eaux usées (i.e., stabilité et manque de données sur l'excrétion). Ces résultats mettent en évidence l'importance et l'utilité de combiner les résultats de l'analyse des eaux usées aux indicateurs existants. De la même façon, la cinquième partie du travail était centrée sur l'apport de l'analyse des eaux usées du point de vue de la police. Au travers de trois exemples, l'utilisation de l'indicateur pour produire du renseignement concernant la structure et les activités des réseaux de distribution de stupéfiants, ainsi que pour guider les choix stratégiques et opérationnels de la police, a été mise en évidence. Dans la dernière partie, la possibilité d'utiliser cette approche pour suivre la consommation de produits pharmaceutiques dangereux, interdits ou contrefaits, a été démontrée par l'analyse dans les eaux usées de la sibutramine et ses métabolites. Les résultats de cette recherche ont mis en évidence que l'épidémiologie par l'analyse des eaux usées est une approche pertinente et puissante, ayant de nombreux domaines d'application. Face à la complexité de mesurer un phénomène caché comme la consommation de stupéfiants, la valeur ajoutée de cette approche a ainsi pu être démontrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en place du parcours clinique pour les interventions de la prothèse totale ou partielle de la hanche (préalable à la mise en place d'un réseau de soins dans notre étude) présuppose la réalisation des objectifs suivants: - décloisonner le système de santé (en commençant avec les deux acteurs concernés) ; - mettre le patient au coeur du système ; - améliorer l'efficience du système ; - maîtriser les coûts, tout en garantissant une qualité des prestations offertes ; - instaurer une nouvelle coopération et coordination entre fournisseurs de soins, ainsi qu' - accroître les compétences et valoriser les professionnels. C'est un projet de qualité des soins. L'itinéraire est multidisciplinaire et destiné à un groupe bien précis de patients, il repose sur une planification systématique et se traduit par un programme de soins spécifiques. La réalisation de tout ou partie de ces objectifs nous permettra de confirmer ou rejeter l'hypothèse selon laquelle les réseaux de soins sont une possible réponse à la crise actuelle du système de santé. Ces affirmations sont-elles toutes nécessaires à la création d'un réseau de soins ? Sont-elles exclusives ou cumulatives ? Y-a-t-il un lien entre la réflexion théorique et les expériences vécues sur le terrain ? Ainsi, nous nous efforcerons de démont[r]er ou de rejeter ces hypothèses au fur et à mesure que nous avancerons avec notre travail de création et développement d'un réseau de soins intégrés. Ce mémoire sera aussi l'occasion de vérifier l'adéquation des théories développées depuis quelques années concernant la mise en place d'une nouvelle forme organisationnelle comme étant une des possibles réponses aux défaillances du système de santé. [Auteur, p. 13]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la remarque H de « Zabarella (Jaques) », Bayle aborde la question traditionnelle de la possibilité de l'éternité du monde. Après avoir proposé une reformulation de cette question, Bayle soulève deux objections à la position orthodoxe de la création du monde dans le temps. Puis il offre sa propre théorie du rapport de Dieu avec le temps. En analysant ses arguments, je soutiens, contre Jean Delvolvé, que Bayle considère son hypothèse comme susceptible d'écarter toutes les objections qu'il avait soulevées contre le système orthodoxe de la création ex nihilo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper studies seemingly unrelated linear models with integrated regressors and stationary errors. By adding leads and lags of the first differences of the regressors and estimating this augmented dynamic regression model by feasible generalized least squares using the long-run covariance matrix, we obtain an efficient estimator of the cointegrating vector that has a limiting mixed normal distribution. Simulation results suggest that this new estimator compares favorably with others already proposed in the literature. We apply these new estimators to the testing of purchasing power parity (PPP) among the G-7 countries. The test based on the efficient estimates rejects the PPP hypothesis for most countries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.