16 resultados para Poisson Mixed Model

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche expérimentale vise à étudier l’impact, à la fois, indépendant et interactif de deux types de modelage et de trois styles d’orientation des buts sur une série de résultantes (cognitives, affectives et comportementales) liées à l’expérience d’apprentissage. 275 participants à un programme de formation corporatif ont pris part à cette étude. Répartis aléatoirement dans deux conditions distinctes, les participants furent exposés soit à un modelage positif, soit à un modelage mixte. Les styles d’orientation des buts (maîtrise des apprentissages, performance, évitement) propres à chacun des participants ont été mesurés préalablement à l’expérimentation par l’entremise du Goal Orientation Scale développé VandeWalle (1997). Sur le plan cognitif, les résultats révèlent que les apprenants ayant une orientation d’évitement perçoivent comme étant plus utile le contenu de la formation, lorsqu’ils sont exposés à un modelage positif. Sur le plan affectif, les résultats révèlent que les apprenants ayant une orientation axée sur la performance ressentent un sentiment d’efficacité personnelle plus élevé suite à la formation lorsqu’ils sont exposés à un modelage positif. Sur le plan comportemental, les résultats indiquent que les apprenants ayant une orientation axée sur la maîtrise des apprentissages reproduisent plus fidèlement les comportements cibles sujets à la formation lorsqu’ils sont exposés à un modelage mixte. Les implications pratiques et théoriques pour les futures recherches utilisant le façonnement comportemental en contexte formatif sont discutées en guise de conclusion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction : La croissance maxillo-mandibulaire des enfants avec une séquence de Pierre Robin (SPR) est controversée dans la littérature. Certains auteurs croient que la croissance mandibulaire est accélérée après la naissance, mais peu se sont penchés sur la croissance du maxillaire supérieur. Cette étude rétrospective sur dossier vise à analyser la croissance maxillo-mandibulaire des enfants atteints de la SPR. Dans un deuxième temps, nous aurions aimé évaluer la sévérité et l’évolution de l’apnée du sommeil en lien avec la croissance des maxillaires, mais un manque de données a empêché l’atteinte de cet objectif. Matériel et méthode : Les dossiers médicaux et orthodontiques de 93 patients (82 volet apnée et 40 volet croissance) du CHU Ste-Justine avec une SPR isolée ont été révisés puis comparés au groupe contrôle composé d’enfants normaux de l’Université du Michigan. L’analyse statistique de modèle mixte pour mesures répétées de même que celle de Brunner-Langer furent effectuées. Résultats : L’évaluation orthodontique a montré un changement statistiquement significatif pour la relation molaire droite, la présence de chevauchement et de diastème au maxillaire et le surplomb vertical. L’analyse des données céphalométriques nous montre que le maxillaire supérieur, la branche montante et le corps de la mandibule sont tous réduits par rapport à la normale. Ce dernier montre une diminution significative avec l’âge (p = 0,03). L’angle gonial, le SNA, SNB, ANB, l’angle de convexité faciale et l’inclinaison de l’incisive supérieure par rapport à FH sont tous normaux. Par contre, on remarque une augmentation statistiquement significative de cette dernière avec l’âge (p = 0,04). L’angle Y est augmenté tandis que les hauteurs faciales supérieure (HFS) et inférieure (HFI) sont diminuées bien que cette dernière montre une tendance à s’approcher de la normale avec l’âge (p ≤ 0,001). Discussion : Les dimensions des maxillaires sont similaires à plusieurs études. En ce qui concerne la mandibule, la croissance est soit plus lente, soit diminuée. Cette observation est plus marquée lorsque l’on s’approche du pic de croissance puisque l’écart par rapport à la normale s’agrandit. On voit une tendance à la croissance hyperdivergente qui pourrait expliquer l’augmentation de la HFI avec l’âge. Le fait que SNA et SNB soient dans la normale pourrait s’expliquer par une diminution de la longueur de la base crânienne. Conclusion : Il n’y a pas de rattrapage de croissance maxillaire et mandibulaire. Les maxillaires restent micrognathes quoique proportionnels l’un envers l’autre et le profil est convexe tout au long de la croissance. La comparaison des données céphalométriques et des traitements orthodontiques avec ceux des patients présentant une fente palatine isolée devrait se faire sous peu. Nous n’avons pas été en mesure d’atteindre nos objectifs concernant l’apnée du sommeil. Une étude prospective serait à prévoir pour y arriver.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background and Purpose. Electrical stimulation of the pelvic floor is used as an adjunct in the conservative treatment of urinary incontinence. No consensus exists, however, regarding electrode placements for optimal stimulation of the pelvic-floor musculature. The purpose of this study was to compare two different bipolar electrode placements, one suggested by Laycock and Green (L2) the other by Dumoulin (D2), during electrical stimulation with interferential currents of the pelvic-floor musculature in continent women, using a two-group crossover design. Subjects. Ten continent female volunteers, ranging in age from 20 to 39 years (X̅=27.3, SD=5.6), were randomly assigned to one of two study groups. Methods. Each study group received neuromuscular electrical stimulation (NMES) of the pelvic-floor musculature using both electrode placements, the order of application being reversed for each group. Force of contraction was measured as pressure (in centimeters of water [cm H2O]) exerted on a vaginal pressure probe attached to a manometer. Data were analyzed using a two-way, mixed-model analysis of variance. Results. No difference in pressure was observed between the two electrode placements. Differences in current amplitude were observed, with the D2 electrode placement requiring less current amplitude to produce a maximum recorded pressure on the manometer. Subjective assessment by the subjects revealed a preference for the D2 electrode placement (7 of 10 subjects). Conclusion and Discussion. The lower current amplitudes required with the D2 placement to obtain recordings comparable to those obtained with the L2 technique suggest a more comfortable stimulation of the pelvic-floor muscles. The lower current amplitudes required also suggest that greater increases in pressure might be obtained with the D2 placement by increasing the current amplitude while remaining within the comfort threshold. These results will help to define treatment guidelines for a planned clinical study investigating the effects of NMES and exercise in the treatment of urinary stress incontinence in women postpartum.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper studies seemingly unrelated linear models with integrated regressors and stationary errors. By adding leads and lags of the first differences of the regressors and estimating this augmented dynamic regression model by feasible generalized least squares using the long-run covariance matrix, we obtain an efficient estimator of the cointegrating vector that has a limiting mixed normal distribution. Simulation results suggest that this new estimator compares favorably with others already proposed in the literature. We apply these new estimators to the testing of purchasing power parity (PPP) among the G-7 countries. The test based on the efficient estimates rejects the PPP hypothesis for most countries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'eugénol (2-methoxy-4-(2-propenyl) phénol), produit dérivé du clou de girofle (Eugenia aromatica), fut tout d’abord utilisé en application topique à des fins d’analgésie dentaire. Il produit également une anesthésie chirurgicale lorsque administré en immersion chez les poissons. L’eugénol agit sur les récepteurs vanilloïdes, sensibles à la chaleur, aux protons et à certaines molécules lipidiques. Ces récepteurs jouent un rôle important dans le mécanisme de l’inflammation et de l’hyperalgésie. L’eugénol pourrait également produire ses effets par antagonisme des récepteurs glutamaergiques (NMDA) et par son activation des récepteurs GABAergiques. Considérant que l’eugénol produit des effets analgésiques et anesthésiques, des études de pharmacocinétique et de pharmacodynamie furent réalisées chez la grenouille (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus). Les résultats démontrent que l’eugénol administré par immersion à une dose efficace permet d’atteindre une anesthésie chirurgicale chez les grenouilles (350 mg/L) et les poissons (75 mg/L). Suite à des analyses plasmatiques par LC/MS/MS, la pharmacocinétique des grenouilles, des poissons et des rats montre que la drogue est éliminée et qu’il pourrait y avoir une recirculation entérohépathique plus importante chez la grenouille et le rat. La longue demi-vie chez le rat suggère aussi une accumulation dans les tissus après des administrations répétées. Suite à l’administration intraveineuse d’une dose de 20 mg/kg chez le rat, l’eugénol induit une anesthésie chirurgicale pour une très courte période de temps variant autour de 167 s. Les résultats de sensibilité thermique confirment l’efficacité de l’eugénol pour réduire l’hyperalgésie induite chez des rats neuropathiques. L’effet pharmacologique de l’eugénol a démontré une augmentation progressive constante de l’analgésie sur une période de cinq jours de traitements journaliers. En conclusion, l’eugénol possède des propriétés analgésiques et anesthésiques chez la grenouille africaine à griffes (Xenopus laevis), le poisson (Oncorhynchus mykiss) et le rat (Rattus norvegicus).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La neuropathie humaine sensitive et autonome de type 2 (NHSA 2) est une pathologie héréditaire rare caractérisée par une apparition précoce des symptômes et une absence d’affectation motrice. Cette pathologie entraîne la perte de perception de la douleur, de la chaleur et du froid ainsi que de la pression (toucher) dans les membres supérieurs et inférieurs et est due à des mutations autosomales récessives confinées à l’exon HSN2 de la protéine kinase à sérine/thréonine WNK1 (with-no-lysine protein kinase 1). Cet exon spécifique permettrait de conférer une spécificité au système nerveux à l’isoforme protéique WNK1/HSN2. La kinase WNK1 est étudiée en détails, en particulier au niveau du rein, mais son rôle au sein du système nerveux demeure inconnu. Considérant le début précoce de la neuropathie et le manque d’innervation sensorielle révélé par des biopsies chez les patients NHSA2, notre hypothèse de recherche est que les mutations tronquantes menant à la NHSA de type 2 causent une perte de fonction de l’isoforme WNK1/HSN2 spécifique au système nerveux entraînant un défaut dans le développement du système nerveux sensoriel périphérique. Chez l’embryon du poisson zèbre, WNK1/HSN2 est exprimé au niveau des neuromastes de la ligne latérale postérieure, un système mécanosensoriel périphérique. Nous avons obtenu des embryons knockdown pour WNK1/HSN2 par usage d’oligonucléotides morpholino antisens (AMO). Nos trois approches AMO ont révélé des embryons présentant des défauts d’établissement au niveau de la ligne latérale postérieure. Afin de déterminer la voie pathogène impliquant l’isoforme WNK1/HSN2, nous nous sommes intéressés à l’interaction rapportée entre la kinase WNK1 et le co-transporteur neuronal KCC2. Ce dernier est une cible de phosphorylation de WNK1 et son rôle dans la promotion de la neurogenèse est bien connu. Nous avons détecté l’expression de KCC2 au niveau de neuromastes de la ligne latérale postérieure et observé une expression accrue de KCC2 chez les embryons knockdown pour WNK1/HSN2 à l’aide de RT-PCR semi-quantitative. De plus, une sur-expression d’ARN humain de KCC2 chez des embryons a produit des défauts dans la ligne latérale postérieure, phénocopiant le knockdown de WNK1/HSN2. Ces résultats furent validés par un double knockdown, produisant des embryons n’exprimant ni KCC2, ni WNK1/HSN2, dont le phénotype fut atténué. Ces résultats nous mènent à suggérer une voie de signalisation où WNK1/HSN2 est en amont de KCC2, régulant son activation, et possiblement son expression. Nous proposons donc que la perte de fonction de l’isoforme spécifique cause un débalancement dans les niveaux de KCC2 activée, menant à une prolifération et une différenciation réduites des progéniteurs neuronaux du système nerveux périphérique. Les défauts associés à la NHSA de type 2 seraient donc de nature développementale et non neurodégénérative.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.