188 resultados para contentions physiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les mauvais traitements représentent un facteur de risque pouvant entraver le développement normal des enfants qui en sont victimes. L’objectif général de cette thèse est de mieux comprendre le concept d’état de stress post-traumatique-complexe (ÉSPT-C) et ce, en permettant l’évaluation rigoureuse de ses symptômes et en documentant sa relation avec d’autres variables. La présente thèse est composée de deux articles empiriques. L’objectif du premier article est d’obtenir une mesure de l’ÉSPT-C pour une population francophone. Pour ce faire, les qualités psychométriques de la traduction francophone du Structured Interview of Disorders of Extreme Stress-Self-Report (SIDES-SR) ont été testées par le biais d’analyses préliminaires auprès de 438 adultes canadiens-français provenant de la population générale et de l’Université de Montréal. Les résultats démontrent que l’instrument possède une structure factorielle de 5 facteurs comparable à celle obtenue pour l’instrument en anglais dans sa version originale. Les facteurs obtenus sont : 1) les croyances pessimistes par rapport aux autres et au futur, 2) la gestion des affects, 3) l’évitement des contacts physiques et sexuels, 4) la somatisation et 5) la prise de risques. La cohérence interne de 4 facteurs sur 5 varie d’acceptable à très satisfaisante alors que leur stabilité temporelle et leur validité convergente, divergente et concurrente ressortent comme étant assez satisfaisantes. Le but du deuxième article de cette thèse est d’examiner l’apport des symptômes d’ÉSPT-C retrouvés chez les mères et de leurs pratiques parentales (supervision et utilisation abusive de la punition) pour expliquer les symptômes d’ordre psychologique chez leurs enfants victimes d’agression sexuelle (AS). Les symptômes d’ÉSPT-C des mères et leurs pratiques éducatives ont été évalués auprès de 96 mères à l’aide de mesures auto-rapportées alors que les symptômes de leur enfant ont été mesurés à partir d’un instrument qui leur était destiné. Les résultats suggèrent qu’en contrôlant les variables sociodémographiques et les caractéristiques de l’AS de l’enfant, les symptômes d’ÉSPT-C des mères sont liés à plusieurs symptômes retrouvés chez les enfants après le dévoilement de l’AS qu’ils ont subie. Le rôle modérateur de la supervision maternelle dans la relation entre l’ÉSPT-C des mères et les symptômes de dépression et d’opposition des enfants a également été démontré. Les implications théoriques et cliniques concernant les résultats obtenus dans le cadre de ce projet doctoral sont finalement abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des données du patient occupe une place significative dans la pratique de l’art de guérir. Il arrive fréquemment que des personnes participent à la production ou à la gestion des données du patient alors que, praticiens de la santé ou non, elles ne travaillent pas sous l’autorité ou la direction du praticien ou de l’équipe en charge du patient. Au regard de la directive 95/46/CE relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel, ces tiers revêtent la qualité de sous–traitant lorsqu’ils traitent des données pour compte du responsable du traitement de données. Ce dernier doit choisir un sous–traitant qui apporte des garanties suffisantes au regard des mesures de sécurité technique et d’organisation relatives aux traitements à effectuer, et il doit veiller au respect de ces mesures. L’existence de labels de sécurité pourrait faciliter le choix du sous–traitant. S’agissant de données très sensibles comme les données génétiques, il serait opportun d’envisager un contrôle préalable par l’autorité de contrôle ou par un détaché à la protection des données. Il demeure alors à déterminer le véritable responsable du traitement des données du patient, ce qui dépend fortement du poids socialement reconnu et attribué aux différents acteurs de la relation thérapeutique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies non transmissibles sont en forte hausse au Québec. La pratique régulière d’activités physiques (AP) permet d’agir en amont et de contribuer à la prévention de plusieurs de ces maladies. Cependant, une grande proportion de la population québécoise n’est pas suffisamment active pour en retirer des bienfaits pour sa santé. Plusieurs études portant sur l’efficacité des interventions de sensibilisation et de promotion de l’AP(SPAP) ont montré que les médecins omnipraticiens peuvent avoir une influence non négligeable sur le niveau de pratique d’AP de la population. Peu d’études à ce jour ont examiné la pratique de SPAP des médecins omnipraticiens du Québec auprès de leurs patients et quels sont les freins et facteurs facilitants. La présente étude vise à combler en partie cette lacune en documentant leur pratique de SPAP et en examinant dans quelle mesure les attitudes,perceptions, barrières, besoins et caractéristiques sociodémographiques influencent leur pratique. Une enquête anonyme a été retenue comme méthode pour dresser un portrait de la situation. L’échantillon de convenance est composé de 701 questionnaires recueillis lors de formations continues de la Fédération des médecins omnipraticiens du Québec. Les résultats montrent que deux répondants sur cinq (40 %) font de la SPAP auprès de la majorité de leurs patients en contexte de prévention primaire, et ce, bien que la presque totalité d’entre eux (98 %) croit que la SPAP fait partie de leur rôle fondamental. L’analyse de régression multiple a permis d’identifier les facteurs les plus souvent associés à la pratique de la SPAP chez les répondants : les médecins qui pratiquent eux-mêmes de l’AP de façon régulière, ceux qui ont plus de neuf ans d’expérience médicale, ceux qui sont moins affectés par la surcharge de travail et ceux qui ont l’impression d’être relativement efficaces dans leurs interventions de SPAP sont les plus susceptibles d’en faire auprès de leurs patients en contexte de prévention primaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche évalue la réponse à court terme de coléoptères phloeophages et xylophages (Cerambycidae et Scolytinae) à différentes intensités de coupes partielles (0, 25 et 40% de la surface terrière prélevée) afin de déterminer la viabilité de cette méthode sylvicole en forêt boréale. Disposant de 12 parcelles expérimentales (4 répétitions pour chaque intensité de coupe) dans une sapinière à bouleau blanc située au sud de la forêt boréale (Québec, Canada), nous avons évalué l’abondance, la diversité ainsi que l’établissement (taux d’attaque) de ces deux groupes d’insectes, et ce dès la première année suivant la coupe. L’échantillonnage a été réalisé à l’aide de pièges à interception multidirectionnelle et de l’écorçage de sections de 3 espèces d’arbres exposées dans l’ensemble des parcelles. Nos résultats montrent une plus grande activité/abondance des deux taxons (abondance 5 à 6 fois plus élevée) ainsi qu’une composition en espèces différente et plus diversifiée dans les peuplements partiellement coupés (25 et 40%). De plus, la présence et la distribution d’espèces colonisant habituellement des hôtes affaiblis (e.g., Trypodendron lineatum, Rhagium inquisitor) – et pouvant donc réduire la valeur économique d’arbres résiduels – a été recensée et semble être favorisée entres autres par l’ouverture de la canopée et des blessures physiques faites aux arbres pendant les opérations sylvicoles. Par ailleurs, l’approche combinant différentes techniques d’échantillonnage a permis une meilleure compréhension des mécanismes de localisation/sélection d’hôte (variant en fonction de l’espèce), un aspect important de la dynamique des insectes pour l’évaluation des risques suite aux coupes forestières. Sur la base de cette étude à court terme, il ne semblerait pas y avoir de différence significative sur les risques pour le milieu quant à l’augmentation d’activité des Cerambycidae et Scolytinae entre les deux traitements de coupe appliqués. Il reste cependant indispensable de vérifier la validité de ces résultats sur une plus longue période afin d’établir des plans d’aménagement forestier durables pour la forêt boréale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relation d’activation père-enfant est une nouvelle théorisation du lien d’attachement au père faisant référence au pôle exploration. Cette relation se développe dès la deuxième année de l’enfant et principalement à travers les jeux physiques. La relation d’activation met prioritairement l’accent sur l’ouverture au monde et permet alors de répondre avant tout au besoin de l’enfant d’être stimulé et de se surpasser, venant compléter ses besoins de sécurité premiers. L’objectif de la présente thèse est d’étudier les liens entre la relation d’activation au père et le développement socio-affectif des enfants à l’âge préscolaire, plus précisément en matière de problèmes intériorisés (PI) et d’anxiété. Deux articles empiriques composent cette thèse. Le premier a été réalisé avec un échantillon de convenance composé de 51 dyades père-enfant. Les analyses démontrent les liens anticipés entre la sous-activation et les PI : les enfants sous-activés ont significativement plus de PI que les enfants activés. Également, l’association initialement observée entre le score d’activation et les PI reste significative même après avoir contrôlé pour certaines variables comme le sexe et le tempérament de l’enfant ainsi que les comportements parentaux. Plus les enfants étaient activés positivement dans leur relation avec leur père, moins ils présentaient de PI. Enfin, l’exploration des liens entre la relation d’activation et les sous-échelles des PI a révélé un lien unique avec l’anxiété. Le deuxième article a été réalisé avec 49 familles issues d’une population clinique (c.-à-d. service de pédopsychiatrie). Il est le premier à mettre en lien l’activation au père, l’attachement à la mère et l’anxiété chez l’enfant d’âge préscolaire. Les analyses confirment les résultats déjà existants en matière d’attachement mère-enfant et d’anxiété; ce sont les enfants insécurisés, plus précisément les enfants insécurisés-ambivalents et insécurisés-désorganisés-contrôlants du sous-type caregiving qui présentent le plus d’anxiété. Les hypothèses concernant les liens entre l’anxiété et l’activation ne sont quant à elles pas confirmées. Enfin, un effet de modération de la relation d’activation père-enfant est mis en évidence sur l’association entre l’attachement à la mère et l’anxiété chez l’enfant; la relation d’activation peut être considérée comme un facteur de protection ou de risque. Les résultats de la présente thèse sont discutés à la lumière de la théorie de l’attachement et de deux modèles étiologiques de l’anxiété (c.-à-d. modèle de psychopathologie développementale et modèle évolutionniste). Cette thèse pourrait mener au développement de programmes de prévention et d’intervention qui prendraient en considération les deux figures parentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine le rythme veille-sommeil et son association avec l’instabilité émotionnelle, l’agressivité et l’impulsivité dans le trouble de personnalité limite (TPL) à l’adolescence. Dans un premier temps, la revue de la littérature sur les perturbations objectives du sommeil dans le TPL a mis en lumière plusieurs difficultés similaires, évaluées par polysomnographie, à celles observées dans la dépression adulte. De 1980 à 2010, aucune recherche n’a examiné le rythme veille-sommeil, aucune n’a étudié les adolescents TPL et plusieurs n’ont pas contrôlé l’état dépressif comme facteur de confusion. De ce constat, il s’avérait pertinent de mener une étude sur le rythme veille-sommeil dans le TPL à l’adolescence en l’absence de dépression co-occurrente. L’adolescence comportant plusieurs caractéristiques physiologiques, psychologiques et sociales, tenir compte des aspects développementaux était essentiel. Dans un second temps, un protocole de recherche fût mis en place à la Clinique des troubles de l’humeur et le recrutement a été réalisé auprès d’adolescents souffrant d’un TPL et sans état dépressif actuel. Ils devaient porter pendant plus de neuf jours (période comprenant deux fins de semaine) un actigraphe, appareil non invasif évaluant l’alternance veille-sommeil dans l’environnement naturel. L’abandon précoce au traitement étant prévalent chez les patients TPL, la fiabilité de l’étude a été examinée afin de déterminer les raisons favorisant et celles nuisant au recrutement et à la collecte des données. La réflexion sur les aspects méthodologiques de l’étude actigraphique a permis d’expliquer les limites de ce type de protocole. Dans un troisième temps, le rythme veille-sommeil des adolescents TPL (n=18) a été caractérisé et comparé à celui des jeunes ayant un trouble bipolaire (n=6), trouble psychiatrique partageant plusieurs manifestations communes avec le TPL, et à celui des adolescents sans trouble de santé mentale (n=20). Les résultats suggèrent que l’adolescent TPL passe plus de temps en éveil durant la période de repos que les jeunes appartenant aux deux autres groupes. De plus, les adolescents TPL présentent une plus grande variabilité inter journalière des heures de lever et du temps total de sommeil que les autres adolescents. Ils se réveillent une heure de plus, et dorment donc une heure supplémentaire, que les adolescents sans trouble mental lors des journées sans routine. Dans un quatrième temps, les analyses corrélationnelles entre les données actigraphiques et les scores aux questionnaires auto-rapportés évaluant l’instabilité émotionnelle, l’agressivité et l’impulsivité suggèrent que plus l’adolescent TPL passe du temps éveillé alors qu’il est au lit, plus il déclare présenter des comportements agressifs, surtout physiques, durant le jour. En résumé, cette thèse contribue à la littérature scientifique en explorant pour la première fois le rythme veille-sommeil et son lien avec les manifestations symptomatiques dans le TPL à l’adolescence. Les résultats suggèrent fortement l’importance d’évaluer et de traiter les problèmes du rythme veille-sommeil que présentent ces jeunes lors de la prise en charge.