977 resultados para échelle de mesure
Resumo:
Dans Németh c. Canada (Justice) (2010), la Cour suprême vient à la conclusion qu’il est possible, pour le ministre de la Justice, d’autoriser l’extradition d’un réfugié dans la mesure où cette dernière n’est pas injuste ou tyrannique, et qu’elle ne vise pas à punir la personne pour des motifs de persécution. Le juge Cromwell précise qu’il n’est pas nécessaire de révoquer le statut de réfugié avant le processus d’extradition ; le ministre n’a qu’à démontrer que les clauses de cessation se trouvant dans la Loi sur l’immigration et la protection des réfugiés s’appliquent. Cela implique qu’il doit faire la preuve, selon la balance des probabilités, que les réfugiés n’ont plus de raison de craindre la persécution dans leur pays d’origine, en établissant qu’il y a un changement stable de circonstances. Toutefois, le processus actuel d’extradition n’assure pas pleinement les protections procédurales auxquelles ont droit les réfugiés, dans la mesure où la Loi sur l’extradition accorde un pouvoir discrétionnaire au ministre de décider, au cas par cas, qui devrait avoir droit à une audition orale pour étayer sa cause. Puisque la possibilité de persécution au retour reste une question empreinte de subjectivité et fait appel à la crédibilité, il est du devoir du ministre d’accorder une forme d'audition aux réfugiés afin d’offrir de solides garanties procédurales. Or, la Cour n’est pas allée jusqu’à prescrire un tel devoir. Dans ce mémoire, nous nous interrogeons sur l’étendue des protections procédurales qui devraient être accordées à un réfugié menacé d’extradition.
Resumo:
La phosphorylation est une modification post-traductionnelle modulant l’activité, la conformation ou la localisation d’une protéine et régulant divers processus. Les kinases et phosphatases sont responsables de la dynamique de phosphorylation et agissent de manière coordonnée. L’activation anormale ou la dérégulation de kinases peuvent conduire au développement de cancers ou de désordres métaboliques. Les récepteurs tyrosine kinase (RTKs) sont souvent impliqués dans des maladies et la compréhension des mécanismes régissant leur régulation permet de déterminer les effets anticipés sur leurs substrats. Dans ce contexte, le but de cette thèse est d’identifier les évènements de phosphorylation intervenant dans la voie de l’insuline chez la drosophile impliquant un RTK : le récepteur de l’insuline (InR). La cascade de phosphorylation déclenchée suite à l’activation du récepteur est conservée chez le mammifère. Afin d’étudier le phosphoprotéome de cellules S2 de drosophile, nous avons utilisé une étape d’enrichissement de phosphopeptides sur dioxyde de titane suivie de leur séparation par chromatographie liquide (LC) et mobilité ionique (FAIMS). Les phosphopeptides sont analysés par spectrométrie de masse en tandem à haute résolution. Nous avons d’abord démontré les bénéfices de l’utilisation du FAIMS comparativement à une étude conventionnelle en rapportant une augmentation de 50 % dans le nombre de phosphopeptides identifiés avec FAIMS. Cette technique permet de séparer des phosphoisomères difficilement distinguables par LC et l’acquisition de spectres MS/MS distincts où la localisation précise du phosphate est déterminée. Nous avons appliqué cette approche pour l’étude des phosphoprotéomes de cellules S2 contrôles ou traitées à l’insuline et avons identifié 32 phosphopeptides (sur 2 660 quantifiés) pour lesquels la phosphorylation est modulée. Étonnamment, 50 % des cibles régulées possèdent un site consensus pour la kinase CK2. Une stratégie d’inhibition par RNAi a été implémentée afin d’investiguer le rôle de CK2 dans la voie de l’insuline. Nous avons identifié 6 phosphoprotéines (CG30085, su(var)205, scny, protein CDV3 homolog, D1 et mu2) positivement régulées suite à l’insuline et négativement modulées après le traitement par RNAi CK2. Par essai kinase in vitro, nous avons identifié 29 cibles directes de CK2 dont 15 corrélaient avec les résultats obtenus par RNAi. Nous avons démontré que la phosphorylation de su(var)205 (S15) était modulée par l’insuline en plus d’être une cible directe de CK2 suite à l’expérience RNAi et à l’essai kinase. L’analyse des données phosphoprotéomiques a mis en évidence des phosphopeptides isomériques dont certains étaient séparables par FAIMS. Nous avons déterminé leur fréquence lors d’études à grande échelle grâce à deux algorithmes. Le script basé sur les différences de temps de rétention entre isomères a identifié 64 phosphoisomères séparés par LC chez la souris et le rat (moins de 1 % des peptides identifiés). Chez la drosophile, 117 ont été répertoriés en combinaison avec une approche ciblée impliquant des listes d’inclusion. Le second algorithme basé sur la présence d’ions caractéristiques suite à la fragmentation de formes qui co-éluent a rapporté 23 paires isomériques. L’importance de pouvoir distinguer des phosphoisomères est capitale dans le but d’associer une fonction biologique à un site de phosphorylation précis qui doit être identifié avec confiance.
Resumo:
Ce mémoire propose de faire l’analyse épistémologique du pouvoir créateur de la sélection naturelle. L’objectif sera de déterminer en quelle mesure il est légitime ou non de lui attribuer un tel pouvoir. Pour ce faire, il sera question de savoir si l’explication sélectionniste peut répondre à la question de l’origine des formes structurelles du vivant. Au premier chapitre, nous verrons le raisonnement qui mena Darwin à accorder un pouvoir créateur à la sélection naturelle. Nous comprendrons alors qu’un cadre exclusivement darwinien n’est peut-être pas à même de répondre au problème de la nouveauté évolutionnaire. Au deuxième chapitre, nous verrons dans une perspective darwinienne qu’il est possible de conserver l’essence de la théorie darwinienne et d’accorder à la sélection naturelle un pouvoir créateur, bien que deux des piliers darwiniens fondamentaux doivent être remis en question. Au troisième chapitre, nous verrons dans une perspective postdarwinienne que le pouvoir cumulatif de la sélection naturelle n’est peut-être pas à même d’expliquer l’adaptation sur le plan individuel, ce qui remet lourdement en question le pouvoir créateur de la sélection naturelle. Nous comprendrons alors que le débat, entre partisans d’une vision positive et partisans d’une vision négative de la sélection naturelle, dépend peut-être d’un présupposé métaphysique particulier.
Resumo:
Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.
Resumo:
Ce mémoire s’applique à étudier d’abord, dans la première partie, la mesure de Mahler des polynômes à une seule variable. Il commence en donnant des définitions et quelques résultats pertinents pour le calcul de telle hauteur. Il aborde aussi le sujet de la question de Lehmer, la conjecture la plus célèbre dans le domaine, donne quelques exemples et résultats ayant pour but de résoudre la question. Ensuite, il y a l’extension de la mesure de Mahler sur les polynômes à plusieurs variables, une démarche semblable au premier cas de la mesure de Mahler, et le sujet des points limites avec quelques exemples. Dans la seconde partie, on commence par donner des définitions concernant un ordre supérieur de la mesure de Mahler, et des généralisations en passant des polynômes simples aux polynômes à plusieurs variables. La question de Lehmer existe aussi dans le domaine de la mesure de Mahler supérieure, mais avec des réponses totalement différentes. À la fin, on arrive à notre objectif, qui sera la démonstration de la généralisation d’un théorème de Boyd-Lawton, ce dernier met en évidence une relation entre la mesure de Mahler des polynômes à plusieurs variables avec la limite de la mesure de Mahler des polynômes à une seule variable. Ce résultat a des conséquences en termes de la conjecture de Lehmer et sert à clarifier la relation entre les valeurs de la mesure de Mahler des polynômes à une variable et celles des polynômes à plusieurs variables, qui, en effet, sont très différentes en nature.
Resumo:
Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone
Resumo:
Ce travail se veut d’un rapprochement aux pratiques et savoirs des peuples amazoniens à partir de discours produits par ces nations. Nous y interpréterons des chants sacrés, des narrations ancestrales et des textes académiques de penseurs autochtones. Ce travail indique que les pratiques amazoniennes s’inscrivent dans un contexte de significations qui considèrent que tout être vivant possède des pensées et un esprit; qu’il existe des êtres spirituels qui défendent ces êtres vivants contre les abus possibles. Les êtres humains doivent transcender leur état de conscience, se déplacer vers les mondes invisibles et initier la communication avec ces esprits, pour ainsi maintenir l’équilibre existentiel. Selon les pensées de l’Amazonie, les communautés humaines ne peuvent pas se concevoir comme autosuffisantes; elles doivent plutôt maintenir de constantes relations avec les multiples êtres qui peuplent leur environnement visible et les mondes invisibles. Les trois concepts clés qui permettent de rendre compte des pratiques des peuples amazoniens sont la déprédation, la transformation et l’équilibre. Par déprédation, nous entendons les pratiques amazoniennes qui impliquent une destruction des autres êtres afin de sustenter la vie de la communauté. Selon les pensées de l’Amazonie, cette déprédation devrait être mesurée, dans le but de ne pas tuer plus que nécessaire à la survie. La déprédation est régulée par les êtres spirituels. Les pratiques amazoniennes de transformation sont destinées à la sauvegarde des liens de la communauté, en transfigurant tout ce qui entre ou sort de cette dernière, de manière à ce qu’aucun agent externe ne mette en péril les liens affectifs. Les pratiques de déprédation et de transformation sont complémentaires et elles requièrent toutes les deux de se produire de manière équilibrée, en respectant les savoirs ancestraux et les lois cosmiques établies par les esprits supérieurs. En ce qui a trait à la méthode d’analyse, nous aborderons les discours de l’Amazonie à partir leur propre logique culturelle, sans imposer des méthodologies préétablies, ce qui donne comme résultat un travail académique qui approfondie la production intellectuelle interculturelle, puisque ce sont les voix indigènes qui expriment elles-mêmes leurs conceptions et le sens de leurs pratiques. Dans son ensemble, le travail engage un dialogue critique avec son champ d’étude en discutant ou en approfondissant certaines conceptions forgées par la littérature anthropologique consacrée à l’étude de la région, à partir des savoirs ancestraux amazoniens qui nourrissent les pratiques de ces nations.
Resumo:
De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.
Resumo:
L'intégration européenne occasionne de multiples dilemmes pour les organisations syndicales, habitués à exercer leurs répertoires d'action dans un espace d'État-nation. Parmi les dilemmes spécifiquement liés à la gouvernance multiniveaux européenne, nous comptons la mobilité de la main-d'œuvre et la création d'un marché unique pour les services. Cette thèse examine les stratégies des organisations syndicales danoises et suédoises de trois secteurs pour s'attaquer à ces deux dilemmes. Des approches néo-institutionnalistes, notamment celle concernant les « variétés du capitalisme », s'attendraient à des réponses relativement uniformes, axées sur les fortes complémentarités institutionnelles nationales, tenant compte de la nature coordonnée des relations industrielles scandinaves. Notre thèse confirme que les institutions nationales jouent un rôle important pour atténuer les impacts de l'intégration économique, au fur et à mesure que l'intégration progresse. L'analyse de nos cas, basée sur plus de soixante entretiens semi-dirigés effectués en Europe, nous permet cependant d'affirmer un rôle également important pour des facteurs endogènes, notamment l'entrepreneuriat institutionnel et les capacités stratégiques.
Resumo:
L’appropriation du feed-back a fait l’objet de plusieurs modèles théoriques en contexte d’évaluation de la performance, notamment par Ilgen, Fisher et Taylor (1979) qui suggèrent un modèle explicitant comment un feed-back en vient à susciter des changements comportementaux. Ce modèle a été repris dans divers domaines de recherche, sans pour autant être adapté en fonction du contexte spécifique dans lequel le feed-back était transmis. Cette thèse propose un modèle d’appropriation du feed-back inspiré des travaux d’Ilgen et al. (1979), mais reflétant les spécificités de l’évaluation du potentiel. Le modèle comporte trois étapes qui sont l’appropriation cognitive (composée de l’acceptation et de la conscientisation), l’intention d’agir dans le sens du feed-back et l’appropriation comportementale. La présente thèse se décompose en trois articles poursuivant les objectifs suivants : (1) Proposer un modèle théorique de l’appropriation du feed-back adapté au contexte de l’évaluation du potentiel. (2) Valider une mesure de l’appropriation cognitive combinant l’acceptation et la conscientisation. (3) Tester empiriquement le modèle d’appropriation du feed-back en contexte d’évaluation du potentiel. Le premier article vise d’abord à circonscrire les fondements de l’évaluation du potentiel et à définir l’appropriation du feed-back. Sur la base de ces informations, le modèle d’Ilgen et al. (1979) est ensuite revu et modifié. Les liens entre les différentes étapes du modèle sont subséquemment étayés par des théories et des études empiriques. L’article se conclue par une réflexion sur les retombées théoriques et pratiques du modèle revisité. L’objectif du second article consiste à développer et valider une mesure de l’appropriation cognitive incluant deux dimensions, à savoir l’acceptation et la conscientisation. Pour ce faire, deux études ont été menées auprès de candidats ayant reçu un feed-back suite à une évaluation du potentiel. Des analyses factorielles exploratoires (N = 111), puis des analyses factorielles confirmatoires (N = 178) ont été réalisées en ce sens. Chaque dimension de l’appropriation cognitive a également été mise en relation avec des variables critères afin de recueillir des éléments de preuve appuyant la validité de l’instrument. La majorité des indices obtenus confirment la présence des deux dimensions pressenties et des constats sont tirés sur la base de ces résultats. Le troisième article vise à vérifier empiriquement les liens anticipés entre les composantes du modèle d’appropriation du feed-back détaillé dans le premier article. Les deux premières étapes du modèle, soit l’appropriation cognitive et l’intention d’agir, ont été mesurées via un questionnaire complété immédiatement après le feed-back par 178 candidats. Ces derniers ont été sollicités trois mois plus tard afin de compléter un second questionnaire portant sur la dernière étape, l’appropriation comportementale, et 97 d’entre eux y ont répondu. Les résultats d’analyses par équations structurelles supportent le modèle et une discussion sur la portée de tels résultats s’en suit.
Resumo:
Les troubles reliés à la dépression, l’épuisement professionnel et l’anxiété sont de plus en plus répandus dans notre société moderne. La consommation croissante d’antidépresseurs dans les différents pays du monde est responsable de la récente détection de résidus à l’état de traces dans les rejets urbains municipaux. Ainsi, ces substances dites « émergentes » qui possèdent une activité pharmacologique destinée à la régulation de certains neurotransmetteurs dans le cerveau suscitent maintenant de nombreuses inquiétudes de la part de la communauté scientifique. L’objectif principal de ce projet de doctorat a été de mieux comprendre le devenir de plusieurs classes d’antidépresseurs présents dans diverses matrices environnementales (i.e. eaux de surfaces, eaux usées, boues de traitement, tissus biologiques) en développant de nouvelles méthodes analytiques fiables capables de les détecter, quantifier et confirmer par chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (LC-QqQMS, LC-QqToFMS). Une première étude complétée à la station d’épuration de la ville de Montréal a permis de confirmer la présence de six antidépresseurs et quatre métabolites N-desmethyl dans les affluents (2 - 330 ng L-1). Pour ce traitement primaire (physico-chimique), de faibles taux d’enlèvement (≤ 15%) ont été obtenus. Des concentrations d’antidépresseurs atteignant près de 100 ng L-1 ont également été détectées dans le fleuve St-Laurent à 0.5 km du point de rejet de la station d’épuration. Une seconde étude menée à la même station a permis l’extraction sélective d’antidépresseurs dans trois tissus (i.e. foie, cerveau et filet) de truites mouchetées juvéniles exposées à différentes concentrations d’effluent dilué traité et non-traité à l’ozone. Un certain potentiel de bioaccumulation dans les tissus (0.08-10 ng g-1) a été observé pour les spécimens exposés à l’effluent non-traité (20% v/v) avec distribution majoritaire dans le foie et le cerveau. Une intéressante corrélation a été établie entre les concentrations de trois antidépresseurs dans le cerveau et l’activité d’un biomarqueur d’exposition (i.e. pompe N/K ATPase impliquée dans la régulation de la sérotonine) mesurée à partir de synaptosomes de truites exposées aux effluents. Une investigation de l’efficacité de plusieurs stations d’épuration canadiennes opérant différents types de traitements a permis de constater que les traitements secondaires (biologiques) étaient plus performants que ceux primaires (physico-chimiques) pour enlever les antidépresseurs (taux moyen d’enlèvement : 30%). Les teneurs les plus élevées dans les boues traitées (biosolides) ont été obtenues avec le citalopram (1033 ng g-1), la venlafaxine (833 ng g-1) et l’amitriptyline (78 ng g-1). Des coefficients de sorption expérimentaux (Kd) calculés pour chacun des antidépresseurs ont permis d’estimer une grande sorption des composés sertraline, desméthylsertraline, paroxetine et fluoxetine sur les solides (log Kd > 4). Finalement, un excellent taux d’enlèvement moyen de 88% a été obtenu après ozonation (5 mg L-1) d’un effluent primaire. Toutefois, la caractérisation de nouveaux sous-produits N-oxyde (venlafaxine, desmethylvenlafaxine) par spectrométrie de masse à haute résolution (LC-QqToFMS) dans l’effluent traité à l’ozone a mis en lumière la possibilité de formation de multiples composés polaires de toxicité inconnue.
Resumo:
L’inflammation: Une réponse adaptative du système immunitaire face à une insulte est aujourd’hui reconnue comme une composante essentielle à presque toutes les maladies infectieuses ou autres stimuli néfastes, tels les dommages tissulaires incluant l’infarctus du myocarde et l’insuffisance cardiaque. Dans le contexte des maladies cardiovasculaires, l’inflammation se caractérise principalement par une activation à long terme du système immunitaire, menant à une faible, mais chronique sécrétion de peptides modulateurs, appelés cytokines pro-inflammatoires. En effet, la littérature a montré à plusieurs reprises que les patients souffrant d’arythmies et de défaillance cardiaque présentent des taux élevés de cytokines pro-inflammatoires tels le facteur de nécrose tissulaire alpha (TNFα), l’interleukine 1β (IL-1β) et l’interleukine 6. De plus, ces patients souffrent souvent d’une baisse de la capacité contractile du myocarde. Le but de notre étude était donc de déterminer si un lien de cause à effet existe entre ces phénomènes et plus spécifiquement si le TNFα, l’IL-1β et l’IL-6 peuvent affecter les propriétés électriques et contractiles du cœur en modulant le courant Ca2+ de type L (ICaL) un courant ionique qui joue un rôle primordial au niveau de la phase plateau du potentiel d’action ainsi qu’au niveau du couplage excitation-contraction. Les possibles méchansimes par lesquels ces cytokines exercent leurs effets seront aussi explorés. Pour ce faire, des cardiomyocytes ventriculaires de souris nouveau-nées ont été mis en culture et traités 24 heures avec des concentrations pathophysiologiques (30 pg/mL) de TNFα, IL-1β ou IL-6. Des enregistrements de ICaL réalisés par la technique du patch-clamp en configuration cellule entière ont été obtenus par la suite et les résultats montrent que le TNFα n’affecte pas ICaL, même à des concentrations plus élevées (1 ng/mL). En revanche, l’IL-1β réduisait de près de 40% la densité d’ICaL. Afin d’examiner si le TNFα et l’IL-1β pouvaient avoir un effet synergique, les cardiomyocytes ont été traité avec un combinaison des deux cytokines. Toutefois aucun effet synergique sur ICaL n’a été constaté. En outre, l’IL-6 réduisait ICaL significativement, cependant la réduction de 20% était moindre que celle induite par IL-1β. Afin d’élucider les mécanismes sous-jacents à la réduction de ICaL après un traitement avec IL-1β, l’expression d’ARNm de CaV1.2, sous-unité α codante pour ICaL, a été mesurée par qPCR et les résultats obtenus montrent aucun changement du niveau d’expression. Plusieurs études ont montré que l’inflammation et le stress oxydatif vont de pair. En effet, l’imagerie confocale nous a permis de constater une augmentation accrue du stress oxydatif induit par IL-1β et malgré un traitement aux antioxydants, la diminution de ICaL n’a pas été prévenue. Cette étude montre qu’IL-1β et IL-6 réduisent ICaL de façon importante et ce indépendamment d’une régulation transcriptionelle ou du stress oxydatif. De nouvelles données préliminaires suggèrent que ICaL serait réduit suite à l’activation des protéines kinase C mais des études additionelles seront nécessaires afin d’étudier cette avenue. Nos résultats pourraient contribuer à expliquer les troubles du rythme et de contractilité observés chez les patients souffrant de défaillance cardiaque.
Resumo:
La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.
Resumo:
Ce projet de mémoire vise à examiner dans quelle mesure la participation aux activités parascolaires modère le lien entre l'affiliation aux pairs déviants et le désengagement comportemental différentiel des adolescents et des adolescentes entre la première et la deuxième secondaire. L'échantillon initial est composé de 448 élèves de première secondaire fréquentant deux écoles de la région de Montréal. Au cours de deux années consécutives, le niveau de désengagement comportemental, la participation aux activités parascolaires et le nombre d'amis déviants ont été évalués à partir de mesures auto-révélées par l'élève. Les résultats démontrent qu'au-delà du niveau de scolarité de la mère et du niveau de déviance du jeune, l'affiliation à des pairs déviants est positivement associée au désengagement comportemental de l'adolescent. Par ailleurs, la participation aux activités parascolaires semble être un facteur aggravant pour le désengagement comportemental du jeune. De plus, nos résultats révèlent que l'effet de la participation aux activités parascolaires n’est pas le même pour les garçons et pour les filles. En discussion, plusieurs pistes de réflexion sont soulevées pour expliquer ces résultats surprenants. Les implications pour la recherche et l’intervention sont également présentées.
Resumo:
Les objectifs de l’étude de l’évolution du risque cardiométabolique (RCM) sur une période de quatre ans (2006-2010) chez des adultes béninois consistaient à: • Examiner les relations entre l’obésité abdominale selon les critères de la Fédération Internationale du Diabète (IFD) ou l’insulino-résistance mesurée par le Homeostasis Model Assessment (HOMA) et l’évolution des autres facteurs de RCM, • Examiner les liens entre les habitudes alimentaires, l’activité physique et les conditions socio-économiques et l’évolution du RCM évalué conjointement par le score de risque de maladies cardiovasculaires de Framingham (FRS) et le syndrome métabolique (SMet). Les hypothèses de recherche étaient: • L’obésité abdominale telle que définie par les critères de l’IDF est faiblement associée à une évolution défavorable des autres facteurs de RCM, alors que l’insulino-résistance mesurée par le HOMA lui est fortement associée; • Un niveau socioéconomique moyen, un cadre de vie peu urbanisé (rural ou semi-urbain), de meilleures habitudes alimentaires (score élevé de consommation d’aliments protecteurs contre le RCM) et l’activité physique contribuent à une évolution plus favorable du RCM. L’étude a inclus 541 sujets âgés de 25 à 60 ans, apparemment en bonne santé, aléatoirement sélectionnés dans la plus grande ville (n = 200), une petite ville (n = 171) et sa périphérie rurale (n = 170). Après les études de base, les sujets ont été suivis après deux et quatre ans. Les apports alimentaires et l’activité physique ont été cernés par deux ou trois rappels de 24 heures dans les études de base puis par des questionnaires de fréquence simplifiés lors des suivis. Les données sur les conditions socioéconomiques, la consommation d’alcool et le tabagisme ont été recueillies par questionnaire. Des mesures anthropométriques et la tension artérielle ont été prises. La glycémie à jeun, l’insulinémie et les lipides sanguins ont été mesurés. Un score de fréquence de consommation d’« aliments sentinelles » a été développé et utilisé. Un total de 416 sujets ont participé au dernier suivi. La prévalence initiale du SMet et du FRS≥10% était de 8,7% et 7,2%, respectivement. L’incidence du SMet et d’un FRS≥10% sur quatre ans était de 8,2% et 5%, respectivement. Le RCM s’était détérioré chez 21% des sujets. L’obésité abdominale définie par les valeurs seuils de tour de taille de l’IDF était associée à un risque plus élevé d’insulino-résistance: risque relatif (RR) = 5,7 (IC 95% : 2,8-11,5); d’un ratio cholestérol total/HDL-Cholestérol élevé: RR = 3,4 (IC 95% : 1,5-7,3); mais elle n’était pas associée à un risque significativement accru de tension artérielle élevée ou de triglycérides élevés. Les valeurs seuils de tour de taille optimales pour l’identification des sujets accusant au moins un facteur de risque du SMet étaient de 90 cm chez les femmes et de 80 cm chez les hommes. L’insulino-résistance mesurée par le HOMA était associée à un risque élevé d’hyperglycémie: RR = 5,7 (IC 95% : 2,8-11,5). En revanche, l’insulino-résistance n’était pas associée à un risque significatif de tension artérielle élevée et de triglycérides élevés. La combinaison de SMet et du FRS pour l’évaluation du RCM identifiait davantage de sujets à risque que l’utilisation de l’un ou l’autre outil isolément. Le risque de détérioration du profil de RCM était associé à un faible score de consommation des «aliments sentinelles» qui reflètent le caractère protecteur de l’alimentation (viande rouge, volaille, lait, œufs et légumes): RR = 5,6 (IC 95%: 1,9-16,1); et à l’inactivité physique: RR = 6,3 (IC 95%: 3,0-13,4). Les sujets de niveau socioéconomique faible et moyen, et ceux du milieu rural et semi-urbain avaient un moindre risque d’aggravation du RCM. L’étude a montré que les relations entre les facteurs de RCM présentaient des particularités chez les adultes béninois par rapport aux Caucasiens et a souligné le besoin de reconsidérer les composantes du SMet ainsi que leurs valeurs seuils pour les Africains sub-sahariens. La détérioration rapide du RCM nécessité des mesures préventives basées sur la promotion d’un mode de vie plus actif associé à de meilleures habitudes alimentaires.