118 resultados para assistenza, ospedaliera, intensità, cura, monitoraggio, modularità, integrazione, IHE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des études supérieures en vue de l’obtention du grade de Docteur en psychologie (D.Psy.) en psychologie option clinique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce présent mémoire examine la probabilité qu'une Canadienne française née entre 1700-1749 et mariée fasse l’expérience d'au moins une naissance au cours de la quarantaine, en tenant compte des particularités de la trajectoire individuelle, des caractéristiques familiales et du contexte historique. Nos analyses confirment que sur les 14 727 femmes à risque d'une maternité entre 40 et 49 ans, 62 % d'entre elles donnent naissance après l'âge de 40 ans. Selon les différentes trajectoires féminines, des disparités tangibles se manifestent dans le fait d'enfanter à un âge avancé. Nos résultats suggèrent que la possibilité qu'une femme accouche dans la quarantaine est positivement associée à un ensemble de facteurs liés à son parcours de vie: une première union entre l’âge de 20 et de 24 ans, un conjoint du même âge ou un conjoint plus jeune, une union continue (ou sans décès du conjoint) jusqu’à 40 ans ou passé cet âge, un enfant précédent non survivant et un historique familial dans lequel la mère de cette femme et au moins l’une de ses sœurs ont donné naissance à un âge avancé. De plus, l'intensité du phénomène de la maternité tardive diminue de manière perceptible au court du temps, particulièrement chez les cohortes de femmes ayant accouché après 1765. La vie en milieu « urbain » influence également de manière négative les chances d'enfanter à un âge avancé. Il se peut que la détérioration des conditions de vie générales vers la fin du 18e siècle, cousinées à la récurrence de maladies infectieuses et l'insalubrité des villes durant cette période, explique la diminution du risque d'une maternité durant la quarantaine. Les résultats obtenus témoignent de la forte contribution des Canadiennes françaises en matière de fécondité tardive en contexte naturel. Notre étude exploratoire offre aussi une perspective utile permettant de mieux comprendre la maternité tardive contemporaine, sujet qui fait l’objet de nombreux débats actuellement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, je me suis intéressé aux effets des fluctuations du prix de pétrole sur l'activité macroéconomique selon la cause sous-jacente ces fluctuations. Les modèles économiques utilisés dans cette thèse sont principalement les modèles d'équilibre général dynamique stochastique (de l'anglais Dynamic Stochastic General Equilibrium, DSGE) et les modèles Vecteurs Autorégressifs, VAR. Plusieurs études ont examiné les effets des fluctuations du prix de pétrole sur les principaux variables macroéconomiques, mais très peu d'entre elles ont fait spécifiquement le lien entre les effets des fluctuations du prix du pétrole et la l'origine de ces fluctuations. Pourtant, il est largement admis dans les études plus récentes que les augmentations du prix du pétrole peuvent avoir des effets très différents en fonction de la cause sous-jacente de cette augmentation. Ma thèse, structurée en trois chapitres, porte une attention particulière aux sources de fluctuations du prix de pétrole et leurs impacts sur l'activité macroéconomique en général, et en particulier sur l'économie du Canada. Le premier chapitre examine comment les chocs d'offre de pétrole, de demande agrégée, et de demande de précaution de pétrole affectent l'économie du Canada, dans un Modèle d'équilibre Général Dynamique Stochastique estimé. L'estimation est réalisée par la méthode Bayésienne, en utilisant des données trimestrielles canadiennes sur la période 1983Q1 à 2010Q4. Les résultats montrent que les effets dynamiques des fluctuations du prix du pétrole sur les principaux agrégats macro-économiques canadiens varient en fonction de leurs sources. En particulier, une augmentation de 10% du prix réel du pétrole causée par des chocs positifs sur la demande globale étrangère a un effet positif significatif de l'ordre de 0,4% sur le PIB réel du Canada au moment de l'impact et l'effet reste positif sur tous les horizons. En revanche, une augmentation du prix réel du pétrole causée par des chocs négatifs sur l'offre de pétrole ou par des chocs positifs de la demande de pétrole de précaution a un effet négligeable sur le PIB réel du Canada au moment de l'impact, mais provoque une baisse légèrement significative après l'impact. En outre, parmi les chocs pétroliers identifiés, les chocs sur la demande globale étrangère ont été relativement plus important pour expliquer la fluctuation des principaux agrégats macroéconomiques du Canada au cours de la période d'estimation. Le deuxième chapitre utilise un modèle Structurel VAR en Panel pour examiner les liens entre les chocs de demande et d'offre de pétrole et les ajustements de la demande de travail et des salaires dans les industries manufacturières au Canada. Le modèle est estimé sur des données annuelles désagrégées au niveau industriel sur la période de 1975 à 2008. Les principaux résultats suggèrent qu'un choc positif de demande globale a un effet positif sur la demande de travail et les salaires, à court terme et à long terme. Un choc négatif sur l'offre de pétrole a un effet négatif relativement faible au moment de l'impact, mais l'effet devient positif après la première année. En revanche, un choc positif sur la demande précaution de pétrole a un impact négatif à tous les horizons. Les estimations industrie-par-industrie confirment les précédents résultats en panel. En outre, le papier examine comment les effets des différents chocs pétroliers sur la demande travail et les salaires varient en fonction du degré d'exposition commerciale et de l'intensité en énergie dans la production. Il ressort que les industries fortement exposées au commerce international et les industries fortement intensives en énergie sont plus vulnérables aux fluctuations du prix du pétrole causées par des chocs d'offre de pétrole ou des chocs de demande globale. Le dernier chapitre examine les implications en terme de bien-être social de l'introduction des inventaires en pétrole sur le marché mondial à l'aide d'un modèle DSGE de trois pays dont deux pays importateurs de pétrole et un pays exportateur de pétrole. Les gains de bien-être sont mesurés par la variation compensatoire de la consommation sous deux règles de politique monétaire. Les principaux résultats montrent que l'introduction des inventaires en pétrole a des effets négatifs sur le bien-être des consommateurs dans chacun des deux pays importateurs de pétrole, alors qu'il a des effets positifs sur le bien-être des consommateurs dans le pays exportateur de pétrole, quelle que soit la règle de politique monétaire. Par ailleurs, l'inclusion de la dépréciation du taux de change dans les règles de politique monétaire permet de réduire les coûts sociaux pour les pays importateurs de pétrole. Enfin, l'ampleur des effets de bien-être dépend du niveau d'inventaire en pétrole à l'état stationnaire et est principalement expliquée par les chocs sur les inventaires en pétrole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien établi dans la littérature en criminologie que les pairs délinquants peuvent avoir un effet néfaste sur les comportements d’un jeune. L’analyse des caractéristiques de l’entourage social est donc essentielle à une compréhension globale des conduites individuelles. Puisqu’il est impossible pour un jeune, délinquant ou non, de se distancer complètement du monde conventionnel (Sykes et Matza, 1957; Warr 2002), il importe de considérer le chevauchement des relations conventionnelles et délinquantes pour saisir l’ampleur du phénomène de l’influence social. De surcroît, le réseau social des jeunes ne se limite pas à leurs amis, les membres de la famille, les collègues de classe et de travail pouvant aussi avoir une influence sur les comportements. La présente étude propose une analyse de l’entourage social de 237 jeunes âgés de 14 à 24 ans, fréquentant les organismes communautaires au Québec. Les résultats révèlent que: 1) la participation à un délit chez les jeunes en communauté est fréquente, 2) les caractéristiques du réseau social, reflétant l’enchâssement social, ne se trouvent pas révélatrices de la participation à un délit, 3) côtoyer les membres de son réseau social en grande intensité réduit de manière significative le volume de délits de marché commis dans une année, et ce, même en contrôlant la présence de contacts délinquants dans le réseau, 4) la présence de contacts délinquants dans plus d’une sphère relationnelle composant le réseau social permet de créer un index de dispersion de la délinquance reflétant ainsi l’enchâssement criminel des jeunes et finalement 5) plus les contacts délinquants sont dispersés à travers les sphères relationnelles, plus le risque de participation à un délit augmente. Toutefois, la dispersion des contacts délinquants dans le réseau social ne prédit pas la fréquence des délits commis. À des fins d’intervention, connaître la dispersion de la délinquance dans le réseau social peut aider à la prévention des comportements délinquants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette thèse de doctorat est de mieux comprendre comment le public interprète les nouvelles scientifiques portant sur la génétique humaine, plus précisément les nouvelles portant sur la génétique des comportements et celles portant sur la génétique des groupes raciaux. L’ouvrage prend la forme d’une thèse par article. Le Chapitre 1 introduit le lecteur aux buts et aux pratiques de la vulgarisation scientifique, présente un sommaire de la recherche sur les effets des médias, résume les principaux travaux produits par le champ de la génopolitique, et définit la structure des croyances du public à l’égard de l’influence de la génétique sur les traits humains. Le Chapitre 2 présente les fondements de la méthode expérimentale, il en explique les atouts et il offre des exemples de différents types de devis expérimentaux utilisés en science politique. Toutes les recherches produites dans cette thèse reposent au moins en partie sur cette méthode. Le Chapitre 3 présente les résultats d’une expérience de sondage qui vise à mesurer l’effet de la lecture d’une nouvelle à propos de la recherche en génétique des comportements sur des participants. L’étude démontre que le public interprète la nouvelle avec maladresse et tend à généraliser l’influence de la génétique à d’autres traits humains qui n’y sont pas mentionnés. J’avance l’hypothèse qu’un raccourci psychologique amplement documenté puisse expliquer cette réaction : l’heuristique de l’ancrage et de l’ajustement. Le Chapitre 4 présente lui aussi les résultats d’une expérience de sondage. L’étude consiste à manipuler certaines informations du contenu d’une nouvelle sur la génopolitique de manière à vérifier si certains éléments sont particulièrement susceptibles de mener à la généralisation hâtive mise en évidence dans le Chapitre 3. Les analyses suggèrent que cette généralisation est amplifiée lorsque la nouvelle présente de hauts niveaux d’héritabilité tirés d’études de jumeaux, ainsi que lorsqu’elle présente des travaux de génétique des populations visant à étudier l’origine des différences géographiques. Ce chapitre présente des recommandations à l’égard des journalistes scientifiques. Le Chapitre 5 s’intéresse à un aspect différent de la génétique humaine : celui de la génétique des races. L’objectif de cette recherche est de comprendre comment le public réagit aux travaux qui invalident l’idée selon laquelle les humains sont divisés en différentes races génétiquement distinctes. Les analyses de données transversales ainsi que les résultats d’une expérience de sondage convergent et indiquent que les conservateurs et les libéraux réagissent de manière diamétralement opposée à cette information. D’un côté, les libéraux acceptent le constat scientifique et réduisent leur impression que la génétique explique en partie les inégalités sociales; de l’autre, les conservateurs rejettent l’argument avec une intensité si forte que le rôle qu’ils attribuent aux différences génétiques s’en voit bonifié. Ces résultats sont interprétés à partir de la théorie du raisonnement motivé. Enfin, le Chapitre 6 résume les principaux constats, met en évidence les contributions que ma thèse apporte à la science politique et à la communication scientifique, et présente quelques pistes pour la recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise à mieux comprendre les tensions ethniques. Ceci est fait en explorant, dans une étude en quatre parties, l'une de ses caractéristiques les plus importantes mais sévèrement négligées: la langue. S’inspirant des traditions de recherche de la sociolinguistique, de la psychologie sociale et de la science politique, cette thèse fournit une analyse en profondeur de l'influence de la langue sur les relations intergroupes. Elle le fait, spécifiquement, en se concentrant sur l'influence que la vitalité linguistique, la santé sociale d'une langue, a sur les tensions sociales. Cette thèse propose un cadre théorique dans lequel le niveau de vitalité linguistique contribue à générer des griefs culturels qui ont une incidence par la suite sur les relations intergroupes. Le premier article explore la relation macro entre la vitalité linguistique et l'intensité des conflits intergroupes. Les résultats, dérivés de données de l'Atlas UNESCO des langues en danger dans le monde et du projet Minorities at Risk (MAR), démontrent une relation curvilinéaire où les niveaux bas et élevé de vitalité linguistique génèrent une intensité inférieure au niveau modéré de vitalité. Ces résultats confirment que la vitalité linguistique est un déterminant important des tensions ethniques fondées sur la langue d'une manière générale, mais encore davantage pour les pays ayant plusieurs minorités linguistiques. Le deuxième article explore l'influence de la vitalité linguistique sur la confiance politique. Il utilise des données de l'Atlas UNESCO des langues en danger dans le monde ainsi que des données du European Social Survey (ESS). Les résultats soutiennent un modèle de médiation dans lequel la vitalité linguistique influence positivement la confiance politique d'une manière directe ainsi qu’indirectement par le biais de la discrimination perçue. Le troisième article cherche à isoler la séquence socio-psychologique qui relie la vitalité linguistique aux tensions intergroupes. Des données de sondage originales ont été recueillies auprès de francophones du Québec, de l'Ontario, du Nouveau-Brunswick et du Manitoba. Les résultats d’analyses de régression multiple soutiennent une séquence socio-psychologique dans laquelle la menace endogroupe influence les attitudes envers l’exogroupe par le biais de la menace perçue comme étant causée par l’exogroupe. Ainsi, ces constats soulignent l'importance des perceptions de la vitalité linguistique pour les attitudes intergroupes. Le quatrième article, produit en collaboration avec Patrick Fournier et Veronica Benet-Martinez, utilise un protocole expérimental pour déterminer le rôle causal de la vitalité linguistique sur les attitudes intergroupes. Les résultats démontrent que le type d'information, positif ou négatif, au sujet de la vitalité linguistique influence les perceptions de menace envers une langue. Cependant, les résultats quant à l'impact de l’information à propos de la vitalité linguistique sur les attitudes envers l’exogroupe, l’appui à la souveraineté et l'identité subjective sont moins évidents. Cette thèse permet de mieux comprendre les tensions intergroupes en démontrant le rôle important que joue la vitalité linguistique sur des phénomènes macros ainsi que sur les attitudes des individus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exercice en immersion dans l'eau peut générer des réponses hémodynamiques et cardiorespiratoires différentes à celles de l’exercice sur terraine sec. Cependant, aucune étude n’a comparé ces réponses sur vélo aquatique (VA) à celles sur vélo sur terrain sec (VS) à une même puissance mécanique externe (Pext). À cet égard, le premier travail de cette thèse visait, d’abord, à trouver les équivalences de Pext lors du pédalage sur VA en immersion à la poitrine par rapport au VS au laboratoire, en considérant que cela restait non déterminé à ce jour. Une équation de mécanique des fluides fut utilisée pour calculer la force déployée pour le système de pédalage (pales, leviers, pédales) et des jambes à chaque tour de pédale. Ensuite, cette force totale a été multipliée par la vitesse de pédalage pour estimer la Pext sur VA. Ayant trouvé les équivalences de Pext sur VA et VS, nous nous sommes fixés comme objectif dans la deuxième étude de comparer les réponses hémodynamiques et cardiorespiratoires lors d'un exercice maximal progressif sur VS par rapport au VA à une même Pext. Les résultats ont montré que le VO2 (p<0.0001) et la différence artério-veineuse (C(a-v)O2) (p<0.0001) étaient diminués lors de l’exercice sur VA comparativement à celui sur VS. Parmi les variables hémodynamiques, le volume d’éjection systolique (VES) (p˂0.05) et le débit cardiaque (Qc) (p˂0.05) étaient plus élevés sur VA. En plus, on nota une diminution significative de la fréquence cardiaque (FC) (p˂0.05). Étant donné qu’à une même Pext les réponses physiologiques sont différentes sur VA par rapport à celles sur VS, nous avons effectué une troisième étude pour établir la relation entre les différentes expressions de l'intensité relative de l'exercice (% du VO2max,% de la FCmax,% du VO2 de réserve (% de VO2R) et % de la FC réserve (% FCR)). Les résultats ont démontré que la relation % FCR vs % VO2R était la plus corrélée (régression linéaire) et la plus proche de la ligne d’identité. Ces résultats pourraient aider à mieux prescrire et contrôler l’intensité de l'exercice sur VA pour des sujets sains. Finalement, une dernière étude comparant la réactivation parasympathique après un exercice maximal incrémental effectué sur VA et VS en immersion au niveau de la poitrine a montré que la réactivation parasympathique à court terme était plus prédominante sur VA (i,e. t, delta 10 à delta 60 et T30, p<0.05). Cela suggérait, qu’après un exercice maximal sur VA, la réactivation parasympathique à court terme était accélérée par rapport à celle après l'effort maximal sur VS chez de jeunes sujets sains. En conclusion, nous proposons une méthode de calcul de la puissance mécanique externe sur VA en fonction de la cadence de pédalage. Nous avons démontré que pendant l’exercice sur VA les réponses hémodynamiques et cardiorespiratoires sont différentes de celles sur VS à une même Pext et nous proposons des équations pour le calcul du VO2 dans l’eau ainsi qu’une méthode pour la prescription et le contrôle de l’exercice sur VA. Finalement, la réactivation parasympathique à court terme s’est trouvée accélérée après un effort maximal incrémental sur VA comparativement à celle sur VS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La résonance magnétique cardiovasculaire sensible à l'oxygénation (OS-CMR) est devenue une modalité d'imagerie diagnostique pour la surveillance de changements dans l'oxygénation du myocarde. Cette technique offre un grand potentiel en tant qu'outil diagnostic primaire pour les maladies cardiovasculaires, en particulier la détection non-invasive d'ischémie. Par contre, il existe plusieurs facteurs potentiellement confondants de cette technique, quelques-uns d'ordre méthodologique comme les paramètres de séquençage et d'autres de nature physiologiques qui sont peut compris. En raison des effets causés par le contenu tissulaire d'eau, l'état d'hydratation peut avoir un impact sur l'intensité du signal. Ceci est un des aspects physiologiques en particulier dont nous voulions quantifier l'effet confondant par la manipulation de l'état d'hydratation chez des humains et l'observation des changements de l'intensité du signal dans des images OS-CMR. Méthodes: In vitro: Du sang artériel et veineux de huit porcs a été utilisé pour évaluer la dilution en série du sang et son effet correspondant sur l'intensité du signal de la séquence OS. In vivo: Vingt-deux volontaires en santé ont subi OS-CMR. Les concentrations d'hémoglobine (Hb) ont été mesurées au niveau de base et immédiatement après une l'infusion cristalloïde rapide de 1000 mL de solution Lactate Ringer's (LRS). Les images OS-CMR ont été prises dans une vue mid-ventriculaire court axe. L'intensité du signal myocardique a été mesurée durant une rétention respiratoire volontaire maximale, suite à une période d'hyperventilation de 60 secondes. Les changements dans l'intensité du signal entre le début et la fin de la rétention de la respiration ont été exprimés relativement au niveau de base (% de changement). Résultats: L'infusion a résulté en une diminution significative de l'Hb mesurée (142.5±3.3 vs. 128.8±3.3 g/L; p<0.001), alors que l'IS a augmenté de 3.2±1.2% entre les images du niveau de base en normo- et hypervolémie (p<0.05). L'IS d'hyperventilation ainsi que les changements d'IS induits par l'apnée ont été attenués après hémodilution (p<0.05). L'évaluation quantitative T2* a démontré une corrélation négative entre le temps de T2* et la concentration d'hémoglobine (r=-0.46, p<0.005). Conclusions: Il existe plusieurs éléments confondants de la technique OS-CMR qui requièrent de l'attention et de l'optimisation pour une future implémentation clinique à grande échelle. Le statut d'hydratation en particulier pourrait être un élément confondant dans l'imagerie OS-CMR. L'hypervolémie mène à une augmentation en IS au niveau de base et atténue la réponse IS durant des manoeuvres de respiration vasoactives. Cette atténuation de l'intensité du signal devrait être tenue en compte et corrigée dans l'évaluation clinique d'images OS-CMR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L’inconfort causé par les appareils orthodontiques peut significativement affecter la coopération des patients dans leur traitement. La douleur, ainsi que la détérioration de la fonction (mastication, élocution) sont reconnus comme les déterminants majeurs de la coopération des patients traités par appareils amovibles. Invisalign® se positionne comme une alternative esthétique aux multiples inconforts observés lors des traitements fixes avec boîtiers. À ce jour, peu d’études ont cherché à comparer la douleur (quantitativement et qualitativement) perçue entre cette technique et celle avec boîtiers fixes sur une longue période. Objectif : L’objectif de la présente étude est d’évaluer la douleur ressentie par les patients qui suivent un traitement orthodontique avec coquilles correctrices Invisalign® et de la comparer avec celle des patients qui suivent un traitement orthodontique conventionnel avec des boîtiers fixes. Matériels et Méthodes: L’étude compte 70 patients (29 garçons, 41 filles), moyenne d’âge de 16 ans [11 à 30]. Les trois sous-groupes sont Invisalign® (n=31), boîtiers Damon (n=19) et boîtiers Speed (n=20). Les groupes avec boîtiers (Damon et Speed) sont les 2 groupes de l’étude menée au sein de la clinique d’Orthodontie de l’Université de Montréal en 2011 qui comparait la perception de la douleur durant le traitement orthodontique entre boîtiers auto-ligaturants passifs et actifs. L’étude a été organisée en 4 phases correspondant à l’insertion des 4 premiers fils pour les groupes avec boîtiers (Phase 1: 0,016" Supercable, Phase 2: 0,016" CuNiTi, Phase 3: 0,016"x0,022" CuNiTi, Phase 4: 0,019"x0,025" CuNiTi) et à l’insertion des coquilles 1, 4, 7 et 10 pour le groupe Invisalign®. À l’aide d’un questionnaire, l’étude évalue pour chaque phase l’ampleur (grâce à une échelle visuelle analogue EVA), la durée et la localisation de la douleur à 6 différents points (T1: immédiatement après l’insertion, T2: 5h après, T3: 24h après, T4: 3 jours après, T5: une semaine après, T6: 2 semaines après). Résultats: À T1Ph3 le pourcentage de patients rapportant de la douleur était plus élevé avec Damon qu’avec Invisalign® (p=0,032) (Damon=55,6% ; Invisalign®=23,3%) mais il n’y avait pas de différence avec le groupe Speed (p=0,114). Les patients avec Invisalign® rapportaient significativement moins d’irritation des tissus mous (muqueuses, gencives) que les patients avec des boîtiers. Pour les résultats des EVA, les différences étaient statistiquement significatives à 2 temps : T3Ph1 (Médiane Invisalign®=33,31, Médiane Speed=49,47; p=0,025) et T3Ph4 (Médiane Invisalign®=13,15, Médiane Damon=27,28; p=0,014). Pour la majorité des patients la douleur ne nécessitait pas la prise de médicament et il n’y avait pas de différence significative entre les groupes sur ce point. La qualité de vie était légèrement affectée lors de la première phase et moindrement pour le groupe Invisalign® que pour les groupes avec boîtiers. Pour les patients Invisalign®, la douleur atteignait son niveau le plus élevé entre 5 et 24 heures après l’insertion de la première coquille, et diminuait en intensité et en durée à chaque phase. Conclusion: La perception de la douleur lors d’un traitement orthodontique avec Invisalign® est inférieure à celle ressentie lors d’un traitement avec des boîtiers fixes. Cette méthode de traitement est donc une thérapie attirante pour les patients désirant un traitement esthétique et relativement confortable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCTION : L’articulation temporo-mandibulaire (ATM) est un système articulaire excessivement complexe. L'étiologie des désordres temporo-mandibulaires (DTM) est encore incertaine et le lien de cause à effet des traitements orthodontiques en tant que facteur de risque est une question qui a longuement été discutée. Cette étude clinique prospective vise à évaluer les effets à long terme du port continu de coquilles correctrices Invisalign® sur l’ATM et les muscles du complexe facial. MATÉRIELS ET MÉTHODES : L'étude incluait 43 adolescents et adultes âgés entre 13 et 51 ans (25 femmes et 18 hommes). Deux d'entre eux ont été exclus en raison de mauvaise coopération causant l’arrêt du traitement orthodontique. Les effets dans le temps des coquilles sur l'ATM et les muscles du complexe facial ont été évalués en utilisant l’examen du Research Diagnostic Criteria for Temporomandibular Disorders (RDC/TMD). Le nombre de contractions musculaires durant le sommeil a été mesuré objectivement par enregistrements électromyographiques (EMG) et la fréquence de grincement et de serrement des dents à l’éveil a été rapportée subjectivement par les patients à l’aide de questionnaires. Des mesures répétées ont été effectuées aux temps suivants: avant le début du traitement pour les données contrôles (T1), deux semaines (T2), et six mois (T3) après le début du traitement. Les données numériques ont été analysées par l’analyse de variance (ANOVA) en mesures répétées et la méthode de Brunner-Langer, alors que les données nominales ont été évaluées par le test de Cochran-Mantel-Haenszel. Les résultats ont été considérés significatifs si p < 0.05. RÉSULTATS ET DISCUSSION : Le nombre de contractions musculaires par heure (index) durant le sommeil et leur durée moyenne n’ont pas été statistiquement différents entre les trois nuits d’enregistrement EMG (Brunner Langer, p > 0.005). Cependant, 67 % des participants ont rapporté avoir eu du grincement ou du serrement des dents la nuit au T2 et 64 % au T3 comparativement à 39 % au T1, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0112). Quarante-quatre pour cent des patients ont signalé du grincement ou du serrement des dents pendant le jour au T1, tandis qu'un pourcentage nettement plus élevé de 66 % en a rapporté au T2 et 61 % au T3 (Cochran-Mantel-Haenszel, p = 0.0294). Au T1, 12 % des sujets ont indiqué qu'ils se sont réveillés avec une douleur musculaire, comparativement à 29 % au T2, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0347). Au T2, il y avait une réduction significative des mouvements maximaux de la mandibule dans toutes les directions (ANOVA en mesures répétées, p < 0,05). De plus, il y a eu une augmentation significative du nombre de sites douloureux et de l'intensité de la douleur à la palpation de l'ATM et des muscles faciaux avec l'évaluation du RDC/TMD au T2 en comparaison aux T1 et T3 (Brunner Langer, p < 0,05). CONCLUSION : La présente étude n’a révélé aucun effet des coquilles sur l’activité oro-faciale durant le sommeil au fil du temps mesurée objectivement à l’aide des enregistrements EMG, mais une augmentation significative de la fréquence du grincement et du serrement des dents rapportée subjectivement par les patients au moyen des questionnaires aux T2 et T3. Au T2, il y avait une augmentation significative des symptômes de l'ATM et des muscles du complexe oro-facial, mais ces symptômes sont retournés au niveau initial avec le temps.