1000 resultados para Outils cliniques évaluation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les référentiels de compétences et la formation professionnelle des enseignants sont devenus des sujets qui suscitent beaucoup d’intérêt de la part de plusieurs chercheurs en éducation, dont Paquay (1994), Perrenoud (2001) et Berchoud (2007). La présente étude est une recherche-développement qui se donne pour objectif principal de concevoir et d’élaborer un référentiel de compétences pour les futurs enseignants de français langue étrangère (FLE). Pour y parvenir, notre démarche générale consistait à partir de l’analyse des référentiels de formation des enseignants ainsi que des standards de performance que nous pouvions déjà trouver partout dans le monde. Cette analyse nous a amenée à repérer les points communs et, par la suite, à les synthétiser pour trouver les éléments pertinents qui pourraient nous inspirer pour une première ébauche de notre référentiel. Ainsi, nous avons dressé une liste des domaines de performance nécessaires à la formation des futurs enseignants que nous avons repérés dans les écrits. Pour enrichir cette liste, nous avons mené des consultations auprès de quelques experts en Égypte où le français est enseigné comme deuxième langue étrangère dans les écoles publiques. Et, à l’aide de trois outils de recherche, les entrevues individuelles, le focus-group et le questionnaire, nous avons pu développer et valider des standards de performance pertinents à chacun des domaines identifiés ainsi que des indicateurs pour chaque standard. L’analyse statistique des données recueillies nous a permis d’en faire une description globale, de confirmer des points de convergence de façon significative, et aussi de repérer des éléments sujets à discussion. Ainsi, nous sommes parvenue à élaborer un référentiel qui comprend trois composantes principales : les domaines de performance, les standards et les indicateurs. Ce référentiel contient vingt standards de performance essentiels à la formation des futurs enseignants de FLE. Les standards sont regroupés sous six catégories appelées domaines : compétence linguistique, communication, processus d’enseignement, gestion de classe, évaluation et professionnalité. Le référentiel comprend aussi soixante-trois indicateurs reliés aux standards retenus. Le résultat de notre recherche est donc ce référentiel de compétences destiné aux futurs enseignants de FLE et dont les éléments ont été validés en Égypte. Nous croyons que cet outil servira, d’une part, de cadre de référence pour les professeurs des facultés d’éducation surtout lors du choix de contenu de leurs cours et, d’autre part, comme un guide pour les futurs enseignants qui leur permettra de s’autoévaluer et de se situer par rapport aux différents standards de performance identifiés dans ce référentiel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a comme objectif général d’enrichir la compréhension du phénomène de mise en œuvre des services cliniques intégrés en contexte organisationnel. Elle s’inscrit dans la perspective théorique du sensemaking organisationnel (Weick, 1995). Dans un premier temps, nous avons étudié comment des acteurs ont construit le sens du projet d’intégration qu’ils devaient mettre en œuvre, et les répercussions de cette construction de sens sur des enjeux cliniques et organisationnels. Le contexte étudié est une nouvelle organisation de santé créée afin d’offrir des services surspécialisés à des personnes aux prises avec un trouble concomitant de santé mentale et de dépendance. Une stratégie de recherche de type qualitatif a été utilisée. L’analyse a reposé sur des données longitudinales (8 ans) provenant de trois sources : des entrevues semi-dirigées, des observations et de l’analyse de documents. Deux articles en découlent. Alors que l’article 1 met l’accent sur la transformation des pratiques professionnelles, l’article 2 aborde le phénomène sous l’angle de l’identité organisationnelle. Dans un deuxième temps, nous avons réalisé une analyse critique des écrits. Celle-ci a porté sur les tendances actuelles dans la façon d’étudier la mise en œuvre des services intégrés pour les troubles concomitants. Les résultats obtenus sont présentés dans l’article 3. Quatre grands constats se dégagent de l’ensemble de ce travail. Le premier est que la mise en œuvre de services cliniques intégrés est un phénomène dynamique, mais sous contrainte. Autrement dit, il s’agit d’un phénomène évolutif qui se définit et se redéfinit au gré des événements, mais avec une tendance lourde à maintenir la direction dans laquelle il s’est déployé initialement. L’énaction et l’engagement des professionnels sont apparus des mécanismes explicatifs centraux à cet égard. Le second constat est que la mise en œuvre s’actualise à travers des niveaux d’intégration interdépendants, ce qui signifie que le contexte et l’objet qui est mis en œuvre coévoluent et se transforment mutuellement. Nos résultats ont montré que la notion de "pratiques de couplage" était utile pour capter cette dynamique. Notre troisième constat est que la mise en œuvre demeure profondément ancrée dans le sens que les membres organisationnels construisent collectivement du projet d’intégration à travers leurs actions et interactions quotidiennes. Cette construction de sens permet de comprendre comment le contenu et la forme du projet d’intégration se façonnent au gré des circonstances, tant dans ses aspects cliniques qu’organisationnels. Enfin, le quatrième constat est que ces dynamiques demeurent relativement peu explorées à ce jour dans les écrits sur l’implantation des services intégrés pour les troubles concomitants. Nous faisons l’hypothèse que ce manque de reconnaissance pourrait expliquer une partie des difficultés de mise en œuvre actuelles. Globalement, ces constats permettent d’enrichir considérablement la compréhension du phénomène en révélant les dynamiques qui le constituent et les enjeux qu’il soulève. Aussi, leur prise en compte par les décideurs et les chercheurs a-t-elle le potentiel de faire progresser les pratiques vers une intégration accrue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vaccination qui est le sujet sur lequel porte cette recherche est une des questions de santé publique les plus importantes; elle fait néanmoins l’objet de nombreuses controverses. Dans le contexte de cette thèse, c’est plutôt l’accès à la vaccination qui est mis en question. La présente recherche vise à analyser une stratégie d’amélioration de la couverture vaccinale à l’aide d’une évaluation de processus extensive en trois étapes faisant suite à une documentation approfondie du contexte. En effet, la recherche analyse les perceptions et les facteurs d’influence de la couverture vaccinale avant l’intervention, les assises conceptuelles et théoriques de cette intervention, l’implantation et la réception de l’intervention et enfin les résultats et les mécanismes mis en œuvre pour les atteindre. Les résultats indiquent que la vaccination s’insère dans l’ensemble des stratégies locales de protection fondées sur des notions endogènes du risque. Ces éléments culturels associés à des facteurs socioéconomiques et aux rapports entre parents et services de santé concourent à expliquer un niveau relativement bas de couverture vaccinale complète de 50% avant l’intervention. L’analyse exploratoire de l’intervention indique que celle-ci intègre une théorie initiale implicite et une philosophie. L’intervention finale était évaluable; cependant, la validation de sa théorie a été compromise par des écarts dans l’implantation. L’approche descriptive montre des taux de réalisation d’activités assez élevés, une atteinte de plus de 95% des cibles et un niveau de réception acceptable, ce qui indique que l’intervention est une stratégie réalisable mais à améliorer. La couverture vaccinale après l’intervention est de 87%; elle est influencée positivement par les niveaux de connaissance élevés des parents et le fait pour les enfants d’être nés dans un centre de santé, et négativement par l’éloignement par rapport au site de vaccination. L’atteinte des résultats suit la procédure principale d’amélioration du niveau de connaissance des parents. Celle-ci est basée sur un mécanisme latent qui est la perception des « opportunités » que fournit la vaccination pour prévenir divers risques sanitaires, sociaux et économiques. Cependant, des approches complémentaires tentent de maximiser les effets de l’intervention en utilisant les pouvoirs conférés aux relais communautaires féminins et la coercition sociale. Cette recherche contribue à éclairer la relation entre l’évaluation du processus et l’analyse de l’évaluabilité, à conceptualiser et opérationnaliser autrement les notions de doses d’intervention administrées et de doses reçues. Sur le plan de la pratique, la recherche contribue à proposer l’amélioration des profils de personnel pour les activités de vaccination et la vulgarisation de la stratégie. Des propositions sont faites pour l’amélioration de l’intervention et l’information des institutions de financement des interventions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les élevages laitiers d’aujourd’hui, les déplacements de la caillette sont parmi les conditions chirurgicales les plus souvent rencontrées. Le pronostic pour ces pathologies est cependant très différent que l’on soit en présence d’une dilatation de la caillette à droite (DCD) ou d’un volvulus de la caillette (VC). En pratique, la distinction en période préopératoire entre ces deux conditions est difficile. Afin de limiter les pertes économiques associées aux DCD/VC, l’identification et la réforme précoce des animaux ayant le plus grand risque d’avoir une mauvaise évolution postopératoire deviennent des enjeux de premier plan. Les objectifs de cette étude étaient de déterminer la valeur pronostique de la L-lactatémie (LAC) mesurée à la ferme en préopératoire à l’aide d’un appareil portatif chez des vaches souffrant de DCD ou VC et de suggérer des seuils de LAC cliniquement significatifs. Nos résultats indiquent que la LAC est un bon indicateur pronostique lors de DCD/VC. Une LAC ≤ 2 mmol/L est un bon indicateur de succès chirurgical et s’avère très utile pour appuyer la décision d’opérer l’animal (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 76.2, 82.7, 53.3 et 93.1%). Par ailleurs, il n’y a aucun avantage économique à effectuer une chirurgie chez des vaches commerciales souffrant de DCD/VC qui ont une LAC ≥ 6 mmol/L (sensibilité, spécificité, valeurs prédictives positive et négative de respectivement 28.6, 97.5, 75 et 84%). Par conséquent, ces animaux devraient, dans la plupart des cas, être réformés en raison de la probabilité élevée qu’ils aient une mauvaise évolution postopératoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prise d’un supplément d’acide folique en période préconceptionnelle réduit le risque d’une anomalie du tube neural (ATN), une malformation du système nerveux. Dans le but d’en réduire la prévalence, la Société des Obstétriciens et Gynécologues du Canada a émis de nouvelles directives cliniques en 2007 qui tenaient compte de différents facteurs de risque pour les ATN et pour qui la dose recommandée variait selon le profil de risque de la femme, allant de 0,4 à 5,0 mg d’acide folique. Jusqu’à présent, peu de données sont disponibles sur les effets de la prise d’une haute dose d’acide folique. Les objectifs de cette étude étaient: 1) d’évaluer la concordance entre la supplémentation en acide folique chez les femmes enceintes et les nouvelles recommandations canadiennes; 2) d’identifier les déterminants d’une utilisation concordante et 3) d’évaluer si la prise de hautes doses d’acide folique en période périconceptionnelle réduisait le risque de malformations congénitales autre que les ATN. Pour répondre à ces objectifs, une étude transversale et une étude écologique ont été effectuées. La première incluait 361 femmes enceintes recrutées aux cliniques d’obstétriques du CHU Sainte-Justine et la deuxième utilisait le Registre Québécois des Grossesses, issu du jumelage de trois banques de données administratives au Québec (RAMQ, Med-Écho et ISQ), où 152 392 couples mère-enfant ont été identifiés. Seul 27% des femmes enceintes ayant participé à l’étude transversale avaient une supplémentation en acide folique, avec ou sans ordonnance, concordante aux lignes directrices canadiennes. La concordance variait selon leur profil de facteurs de risque pour les ATN. Notre étude écologique montre que la prévalence annuelle de l’utilisation de haute dose d’acide folique (avec ordonnance) en période périconceptionnelle a augmenté de 0,17% à 0,80% (p < 0,0001) entre 1998 et 2008 et que la prévalence des malformations congénitales majeures a augmenté de 15% au cours de la même période (3,35% à 3,87%, p<0,0001). Les résultats de nos deux études montrent que l’acide folique n’est pas largement utilisé par les femmes en âge de procréer et ce, peu importe la dose. De nouvelles campagnes de santé publique devront être mises sur pied, afin d’inciter les femmes à consommer de l’acide folique avant et pendant leur grossesse. Également, la prise de haute dose d’acide folique ne semble pas avoir diminué le risque de malformations congénitales, à l’échelle populationnelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 - Politique de gestion des archives, à l'automne 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les mauvais traitements représentent un facteur de risque pouvant entraver le développement normal des enfants qui en sont victimes. L’objectif général de cette thèse est de mieux comprendre le concept d’état de stress post-traumatique-complexe (ÉSPT-C) et ce, en permettant l’évaluation rigoureuse de ses symptômes et en documentant sa relation avec d’autres variables. La présente thèse est composée de deux articles empiriques. L’objectif du premier article est d’obtenir une mesure de l’ÉSPT-C pour une population francophone. Pour ce faire, les qualités psychométriques de la traduction francophone du Structured Interview of Disorders of Extreme Stress-Self-Report (SIDES-SR) ont été testées par le biais d’analyses préliminaires auprès de 438 adultes canadiens-français provenant de la population générale et de l’Université de Montréal. Les résultats démontrent que l’instrument possède une structure factorielle de 5 facteurs comparable à celle obtenue pour l’instrument en anglais dans sa version originale. Les facteurs obtenus sont : 1) les croyances pessimistes par rapport aux autres et au futur, 2) la gestion des affects, 3) l’évitement des contacts physiques et sexuels, 4) la somatisation et 5) la prise de risques. La cohérence interne de 4 facteurs sur 5 varie d’acceptable à très satisfaisante alors que leur stabilité temporelle et leur validité convergente, divergente et concurrente ressortent comme étant assez satisfaisantes. Le but du deuxième article de cette thèse est d’examiner l’apport des symptômes d’ÉSPT-C retrouvés chez les mères et de leurs pratiques parentales (supervision et utilisation abusive de la punition) pour expliquer les symptômes d’ordre psychologique chez leurs enfants victimes d’agression sexuelle (AS). Les symptômes d’ÉSPT-C des mères et leurs pratiques éducatives ont été évalués auprès de 96 mères à l’aide de mesures auto-rapportées alors que les symptômes de leur enfant ont été mesurés à partir d’un instrument qui leur était destiné. Les résultats suggèrent qu’en contrôlant les variables sociodémographiques et les caractéristiques de l’AS de l’enfant, les symptômes d’ÉSPT-C des mères sont liés à plusieurs symptômes retrouvés chez les enfants après le dévoilement de l’AS qu’ils ont subie. Le rôle modérateur de la supervision maternelle dans la relation entre l’ÉSPT-C des mères et les symptômes de dépression et d’opposition des enfants a également été démontré. Les implications théoriques et cliniques concernant les résultats obtenus dans le cadre de ce projet doctoral sont finalement abordées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alors que la théorie de l’autodétermination (Deci & Ryan, 1985, 2000, 2008) propose un bassin de connaissances pouvant être d’une réelle utilité pour aider les travailleurs et les organisations à croître et à prospérer, peu d’études ont porté, à ce jour, sur l’évaluation d’interventions visant à implanter ces connaissances sur le terrain en milieu organisationnel. En ce sens, la présente thèse a pour but de vérifier l’impact d’une formation visant le développement des habiletés de soutien aux besoins psychologiques des gestionnaires sur les comportements en emploi de ces gestionnaires ainsi que sur la satisfaction des besoins psychologiques, la motivation et la santé psychologique de leurs employés. Pour ce faire, 17 gestionnaires provenant de deux organisations canadiennes du secteur public ont participé à un programme de formation d’une durée de trois journées non consécutives. Ils ont également répondu à des questionnaires un mois avant la formation ainsi que trois à quatre mois après le début de celle-ci afin d’évaluer leurs apprentissages ainsi que leurs comportements de soutien aux besoins psychologiques en emploi. Par ailleurs, 55 de leurs employés ont répondu à des questionnaires préformation et postformation au sujet de leur perception à l’égard des comportements de soutien aux besoins psychologiques de leur supérieur immédiat ainsi que de leur propre niveau de satisfaction des besoins psychologiques, de motivation au travail et de santé psychologique. L’étude a été menée à l’aide d’un devis de recherche de type prétest et post-test à groupes non-équivalents, sans groupe contrôle. Afin de renforcer ce devis, la stratégie de référence interne a été utilisée auprès des employés (Haccoun & Hamtiaux, 1994). Les résultats suggèrent que, dans la mesure où des gains étaient possibles par le biais d’une formation plus traditionnelle (c.-à-d., que le potentiel des gestionnaires à s’améliorer davantage par rapport à leur niveau de base était suffisant et que les habiletés visées se développaient bien par le biais d’une telle formation), les gestionnaires ont développé leurs habiletés de soutien aux besoins psychologiques et, selon leur perspective, transféré leurs apprentissages au travail. Toutefois, les employés de ces gestionnaires n’ont pas perçu de changement statistiquement significatif entre les deux temps de mesure quant aux habiletés de soutien aux besoins psychologiques de leur supérieur immédiat en emploi et les retombées escomptées de la formation chez les employés n’ont pas été observées. À la lumière de ces résultats, le dernier chapitre de la thèse discute de l’importance de l’analyse des besoins, de l’implication de l’environnement organisationnel dans les initiatives de formation ainsi que de l’ajout de méthodes d’apprentissage complémentaires aux formations plus traditionnelles afin d’en assurer l’efficacité. Par ailleurs, les contributions, limites et pistes de recherches futures de la thèse y seront exposées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur la relation entre les inégalités socioéconomiques et la migration des Indiens inscrits du Québec en 2006. Nous évaluons la contribution des inégalités sociales et scolaires, des inégalités économiques, des inégalités régionales et des inégalités juridiques et politiques à la migration des Indiens inscrits et la contribution de la migration à l’atteinte d’un revenu supérieur. Les résultats obtenus auprès des Autochtones sont comparés à ceux des non-Autochtones de façon à pouvoir distinguer ce qui et spécifique aux Autochtones. Des régressions logistiques ont été effectuées afin d’observer la contribution des caractéristiques individuelles et collectives sur la migration non-récente - entre 2001 et 2005, sur l’atteinte d’un revenu supérieur au 75e centile en 2005 et sur la migration récente - entre 2005 et 2006. Les résultats de la présente recherche montrent que le sexe, l’âge et les variables de migration expliquent très peu le fait de bénéficier d’un revenu supérieur. Obtenir minimalement un diplôme d’études secondaire et d’avoir un travail à temps plein augmente considérablement les chances. Chez les Indiens inscrits, la nation d’appartenance et la zone de résidence expliquent beaucoup plus la variance expliquée. Qui plus est, la contribution de l’âge et du sexe explique très peu le fait d’avoir migré - récemment ou non récemment. Par conséquent, la scolarité, l’occupation expliquent beaucoup le fait que les Indiens inscrits et que les non-Autochtones migrent. Les nations d’appartenance ainsi que les zones de résidence expliquent beaucoup le fait que les Indiens inscrits migrent.