859 resultados para Durée de séjour hospitalier
Resumo:
Introduction: Le supplément d’oxygène et la nutrition parentérale (NP) sont les deux sources majeures de stress oxydant chez le nouveau-né. Lors de la détoxification des oxydants, le potentiel redox du glutathion s’oxyde. Notre hypothèse est que le supplément d’oxygène et la durée de la NP sont associés à un potentiel redox plus oxydé et à une augmentation de la sévérité de la dysplasie bronchopulmonaire (DBP). Patients et Méthodes: Une étude observationnelle prospective incluant des enfants de moins de 29 semaines d’âge gestationnel. Les concentrations sanguines de GSH et GSSG à jour 6-7 et à 36 semaines d’âge corrigé étaient mesurées par électrophorèse capillaire et le potentiel redox était calculé selon l’équation de Nernst. La sévérité de la DBP correspondait à la définition du NICHD. Résultats: Une FiO2≥ 25% au 7ième jour de vie ainsi que plus de 14 jours de NP sont significativement associés à un potentiel redox plus oxydé et à une DBP plus sévère. Ces relations sont indépendantes de l’âge de gestation et de la gravité de la maladie initiale. La corrélation entre le potentiel redox et la sévérité de la DBP n’est pas significative. La durée de la NP était responsable de 15% de la variation du potentiel redox ainsi que de 42% de la variation de la sévérité de la DPB. Conclusion: Ces résultats suggèrent que l’oxygène et la NP induisent un stress oxydant et que les stratégies visant une utilisation plus judicieuse de l’oxygène et de la NP devraient diminuer la sévérité de la DBP.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.
Resumo:
Contexte et objectifs. La carrière criminelle est un sujet d’intérêt criminologique depuis plus de 80 ans. Les travaux sur cette question ont permis de mieux comprendre l’évolution des personnes contrevenantes et leurs crimes au fil du temps. Bien que beaucoup d’efforts aient été déployés pour étudier les hommes, les recherches portant sur les trajectoires criminelles des femmes demeurent relativement rares, ceci étant notamment attribuable à la petite taille des échantillons. L’objectif de ce mémoire est de réaliser une étude comparative de la carrière criminelle d’hommes et de femmes de 18 à 47 ans relevant de la juridiction de la province de Québec. Méthodologie. L’échantillon est composé de 3320 délinquants sous responsabilité provinciale, soit 216 femmes (6,5 %) et 3104 hommes (93,5 %). Des statistiques descriptives seront réalisées afin de dresser un portrait de la clientèle et une approche par variable latente catégorielle sera utilisée pour modéliser les parcours criminels. Plus précisément, cette analyse permet d’estimer des sous-groupes de délinquants au sein de la population qui suivent des courbes de croissance distinctes. La proportion d’individus appartenant à chacun de ces sous-groupes peut donc être estimée. Résultats. Les analyses indiquent que les femmes ont une fréquence de délits commis plus faible que les hommes, et ce, particulièrement au début de leur carrière criminelle. En effet, la différence quant à la fréquence tend à s’atténuer avec le temps, pour disparaître vers 40 ans. Également, il apparaît que les hommes et les femmes suivent un nombre de trajectoires criminelles similaires; cependant, la prévalence chez ces dernières apparaît relativement différente. En effet, il ressort que les femmes commencent plus tardivement leur carrière criminelle que les hommes, avec une proportion plus importante pour les crimes contre les biens. Finalement, les antécédents juvéniles influent sur la chronicité et la persistance, quel que soit le genre ou le type de crime. Conclusion. Les résultats démontrent que la différence selon le sexe est un sujet d’intérêt criminologique primordial puisque les femmes présentent des risques différents quant à la fréquence et au type de crime. Qui plus est, ces dernières semblent commencer leur carrière criminelle plus tardivement que les hommes.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Cette thèse porte sur les gestes et attitudes qui ont caractérisé la figure aristocratique dans l’art européen entre 1661 et 1789. Cet intervalle correspond à la durée de vie d’un paradigme corporel noble appelé « le bon air et la bonne grâce », de son élaboration à la cour de Louis XIV et de sa diffusion hégémonique en Europe, jusqu’à son rejet définitif à la Révolution française. La société d’Ancien Régime a déployé tout un arsenal de moyens (exercices, instruments orthopédiques,…) pour intérioriser une grâce qui devait paraître innée et prouver la noblesse. Le maître à danser détenait le monopole de l’inculcation de cette grâce et de son élaboration suivant des critères hautement esthétiques. Les gestes et positions inventoriés ici, sont décrits et associés à leurs connotations d’origine, montrant qu’une connaissance approfondie et minutieuse de la gestuelle peut affiner notre compréhension d’un large pan de l’art des XVIIe et XVIIIe siècles. L’auteur démontre que cette hexis corporelle contemporaine transcende tous les domaines concernés par le corps noble (éducation, théâtre, danse, opéra, arts martiaux, etc.) et en vient à infiltrer la majorité des genres picturaux, bousculant les traditions artistiques déjà en place et s’affichant comme une alternative moderne à la grâce des Anciens. Le portrait, la gravure de mode, les figurines de porcelaine, les vues de villes et de jardins sont les plus touchés par ce phénomène. La bonne grâce s’affirme ainsi dans une culture visuelle qui, par ricochet, en vient à renforcer les pratiques sociales dont elle était le reflet. Cet aller-retour des attitudes aristocratiques entre l’art et la vie occasionne la standardisation de la figure et du corps aristocratiques. Dans la pastorale, la peinture d’histoire et la scène de genre, l’idéal aristocratique se manifeste, tantôt en négatif dans la figure du paysan, du Pierrot et de l’Arlequin, tantôt de manière idéalisée dans celles du berger et du héros galants. La substitution de gestes emphatiques et d’expressions faciales explicites par une gestuelle fondée sur la retenue et la dissimulation des passions, fondera une nouvelle historia moins lisible que la traditionnelle, mais plus subtile et insinuée, répondant ainsi mieux au goût et à la sensibilité aristocratique.
Resumo:
Objectif: Étudier l’association entre la consommation de café, la consommation de thé noir et le risque de cancer du poumon. Méthodologie: Cette recherche utilise les données obtenues lors d’une étude cas-témoin effectuée à Montréal avec des résidents canadiens âgés entre 35 et 75 ans recrutés entre 1996 et 2001. Les cas étaient des individus atteints du cancer et diagnostiqués entre 1996 et 1997 dans l’un des 18 hôpitaux de la région du Grand-Montréal. Les contrôles on été sélectionnés à partir de la liste électorale et appariés selon la fréquence de distribution des cas par groupe d’âge de 5 ans, par sexe et par district électoral. Au total, 1130 cas et 1484 contrôles ont été inclus dans cette étude. Les rapports de cote (RC) et les intervalles de confiance de 95% (CI) des associations entre la consommation de thé noir, de café et le cancer du poumon ont été estimés à l’aide de la régression logistique non conditionnelle. Quatre aspects de la consommation ont été analysés dans des modèles multivariés distincts: la fréquence de consommation, la consommation journalière moyenne, la durée de consommation et la consommation cumulative. Les covariables potentielles considérées incluaient : l’âge, le sexe, l’historique de tabagisme, le statut du répondant, l’ethnicité, la consommation d’alcool, la consommation de fruit et de légume, l’apport énergétique journalier, l’exposition a des agents professionnelle et les variables socio-économiques . Des analyses secondaires par le sexe, le tabagisme et le type histologique de cancer on été effectuées. Résultats : Aucune association statistiquement significative n’a été observée entre la consommation de thé noir et le cancer du poumon. Nos résultats suggèrent qu’une consommation de ≥ 50 ans était associée avec une augmentation du risque d’adénocarcinome comparée à aucune consommation. Nous avons observé une association inverse statistiquement significative entre la consommation occasionnelle de café et le cancer du poumon (RC : 0.32, 95%CI : 0.17-0.59). La durée de consommation de café n’était pas associée avec le cancer du poumon. Conclusion : Nos résultats suggèrent que la consommation à long terme de thé noir pourrait augmenter le risque d’adénocarcinome. D’un autre côté, la consommation occasionnelle de café pourrait réduire le risque de cancer du poumon.
Resumo:
Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.
Resumo:
Alors que la théorie de l’autodétermination (Deci & Ryan, 1985, 2000, 2008) propose un bassin de connaissances pouvant être d’une réelle utilité pour aider les travailleurs et les organisations à croître et à prospérer, peu d’études ont porté, à ce jour, sur l’évaluation d’interventions visant à implanter ces connaissances sur le terrain en milieu organisationnel. En ce sens, la présente thèse a pour but de vérifier l’impact d’une formation visant le développement des habiletés de soutien aux besoins psychologiques des gestionnaires sur les comportements en emploi de ces gestionnaires ainsi que sur la satisfaction des besoins psychologiques, la motivation et la santé psychologique de leurs employés. Pour ce faire, 17 gestionnaires provenant de deux organisations canadiennes du secteur public ont participé à un programme de formation d’une durée de trois journées non consécutives. Ils ont également répondu à des questionnaires un mois avant la formation ainsi que trois à quatre mois après le début de celle-ci afin d’évaluer leurs apprentissages ainsi que leurs comportements de soutien aux besoins psychologiques en emploi. Par ailleurs, 55 de leurs employés ont répondu à des questionnaires préformation et postformation au sujet de leur perception à l’égard des comportements de soutien aux besoins psychologiques de leur supérieur immédiat ainsi que de leur propre niveau de satisfaction des besoins psychologiques, de motivation au travail et de santé psychologique. L’étude a été menée à l’aide d’un devis de recherche de type prétest et post-test à groupes non-équivalents, sans groupe contrôle. Afin de renforcer ce devis, la stratégie de référence interne a été utilisée auprès des employés (Haccoun & Hamtiaux, 1994). Les résultats suggèrent que, dans la mesure où des gains étaient possibles par le biais d’une formation plus traditionnelle (c.-à-d., que le potentiel des gestionnaires à s’améliorer davantage par rapport à leur niveau de base était suffisant et que les habiletés visées se développaient bien par le biais d’une telle formation), les gestionnaires ont développé leurs habiletés de soutien aux besoins psychologiques et, selon leur perspective, transféré leurs apprentissages au travail. Toutefois, les employés de ces gestionnaires n’ont pas perçu de changement statistiquement significatif entre les deux temps de mesure quant aux habiletés de soutien aux besoins psychologiques de leur supérieur immédiat en emploi et les retombées escomptées de la formation chez les employés n’ont pas été observées. À la lumière de ces résultats, le dernier chapitre de la thèse discute de l’importance de l’analyse des besoins, de l’implication de l’environnement organisationnel dans les initiatives de formation ainsi que de l’ajout de méthodes d’apprentissage complémentaires aux formations plus traditionnelles afin d’en assurer l’efficacité. Par ailleurs, les contributions, limites et pistes de recherches futures de la thèse y seront exposées.
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes
Resumo:
Le diabète de type 2 (DT2) est une maladie métabolique complexe causée par des facteurs génétiques mais aussi environnementaux, tels la sédentarité et le surpoids. La dysfonction de la cellule β pancréatique est maintenant reconnue comme l’élément déterminant dans le développement du DT2. Notre laboratoire s’intéresse à la sécrétion d’insuline par la cellule β en réponse aux nutriments calorigéniques et aux mécanismes qui la contrôle. Alors que la connaissance des mécanismes responsables de l’induction de la sécrétion d’insuline en réponse aux glucose et acides gras est assez avancée, les procédés d’inhibition de la sécrétion dans des contextes normaux ou pathologiques sont moins bien compris. L’objectif de la présente thèse était d’identifier quelques-uns de ces mécanismes de régulation négative de la sécrétion d’insuline dans la cellule β pancréatique, et ce en situation normale ou pathologique en lien avec le DT2. La première hypothèse testée était que l’enzyme mitochondriale hydroxyacyl-CoA déshydrogénase spécifique pour les molécules à chaîne courte (short-chain hydroxyacyl-CoA dehydrogenase, SCHAD) régule la sécrétion d’insuline induite par le glucose (SIIG) par la modulation des concentrations d’acides gras ou leur dérivés tels les acyl-CoA ou acyl-carnitine dans la cellule β. Pour ce faire, nous avons utilisé la technologie des ARN interférants (ARNi) afin de diminuer l’expression de SCHAD dans la lignée cellulaire β pancréatique INS832/13. Nous avons par la suite vérifié chez la souris DIO (diet-induced obesity) si une exposition prolongée à une diète riche en gras activerait certaines voies métaboliques et signalétiques assurant une régulation négative de la sécrétion d’insuline et contribuerait au développement du DT2. Pour ce faire, nous avons mesuré la SIIG, le métabolisme intracellulaire des lipides, la fonction mitochondriale et l’activation de certaines voies signalétiques dans les îlots de Langerhans isolés des souris normales (ND, normal diet) ou nourries à la dière riche en gras (DIO) Nos résultats suggèrent que l’enzyme SCHAD est importante dans l’atténuation de la sécrétion d’insuline induite par le glucose et les acides aminés. En effet, l’oxydation des acides gras par la protéine SCHAD préviendrait l’accumulation d’acyl-CoA ou de leurs dérivés carnitine à chaîne courtes potentialisatrices de la sécrétion d’insuline. De plus, SCHAD régule le métabolisme du glutamate par l’inhibition allostérique de l’enzyme glutamate déshydrogénase (GDH), prévenant ainsi une hyperinsulinémie causée par une sur-activité de GDH. L’étude de la dysfonction de la cellule β dans le modèle de souris DIO a démontré qu’il existe une grande hétérogénéité dans l’obésité et l’hyperglycémie développées suite à la diète riche en gras. L’orginialité de notre étude réside dans la stratification des souris DIO en deux groupes : les faibles et forts répondants à la diète (low diet responders (LDR) et high diet responder (HDR)) sur la base de leur gain de poids corporel. Nous avons mis en lumières divers mécanismes liés au métabolisme des acides gras impliqués dans la diminution de la SIIG. Une diminution du flux à travers le cycle TG/FFA accompagnée d’une augmentation de l’oxydation des acides gras et d’une accumulation intracellulaire de cholestérol contribuent à la diminution de la SIIG chez les souris DIO-HDR. De plus, l’altération de la signalisation par les voies AMPK (AMP-activated protein kinase) et PKC epsilon (protéine kinase C epsilon) pourrait expliquer certaines de ces modifications du métabolisme des îlots DIO et causer le défaut de sécrétion d’insuline. En résumé, nous avons mis en lumière des mécanismes importants pour la régulation négative de la sécrétion d’insuline dans la cellule β pancréatique saine ou en situation pathologique. Ces mécanismes pourraient permettre d’une part de limiter l’amplitude ou la durée de la sécrétion d’insuline suite à un repas chez la cellule saine, et d’autre part de préserver la fonction de la cellule β en retardant l’épuisement de celle-ci en situation pathologique. Certaines de ces voies peuvent expliquer l’altération de la sécrétion d’insuline dans le cadre du DT2 lié à l’obésité. À la lumière de nos recherches, le développement de thérapies ayant pour cible les mécanismes de régulation négative de la sécrétion d’insuline pourrait être bénéfique pour le traitement de patients diabétiques.
Resumo:
Lorsque l’anesthésie par inhalation ne peut être utilisée chez le rat, la combinaison de kétamine et de xylazine est l’alternative la plus fréquemment utilisée. Les doses administrées peuvent varier selon le protocole expérimental. En présence de fièvre, d’infections ou de processus tumoral accompagné de fièvre, la pharmacocinétique de ces drogues peut être modifiée. Ce projet porte sur l’évaluation des changements physiologiques, hématologiques, biochimiques et pharmacocinétiques chez le rat Sprague Dawley lors d’anesthésie avec le mélange kétamine-xylazine suite à l’administration de trois doses différentes de lipopolysaccharide (LPS). Après l’administration de LPS, une anesthésie à la kétamine-xylazine fut induite chez des rats Sprague Dawley. Des prélèvements sanguins périodiques ainsi que des mesures des paramètres physiologiques furent effectués afin d’évaluer l’effet du LPS sur la pharmacocinétique des deux drogues ainsi que sur les paramètres biochimiques et hématologiques. Les différentes doses de LPS ont causé certaines modifications notamment en produisant une baisse marquée de la saturation en oxygène et de l’albumine sérique, une augmentation de la durée d’anesthésie ainsi que des lésions hépatiques mineures. Les paramètres pharmacocinétiques de la kétamine furent peu altérés par l’administration de LPS tandis qu’une diminution de la clairance et une augmentation de l’aire sous la courbe (AUC) furent observées pour la xylazine dans les groupes ayant reçu les doses moyenne et élevée de LPS. Ces résultats montrent que les doses de xylazine doivent être adaptées en présence de LPS pour permettre une anesthésie de courte durée et des changements physiologiques et biochimiques moindres lorsqu’elle est administrée avec de la kétamine.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
L’augmentation rapide de l’interdépendance mondiale, provoquée par le développement de la mondialisation, exige une redéfinition de la notion traditionnelle de l’éducation supérieure. Au Canada, comme dans le reste du monde, plusieurs universitaires, fonctionnaires du gouvernement et étudiants insistent maintenant sur l’intégration de l’internationalisation dans l’éducation supérieure à travers des échanges interculturels et des études à l’étranger, dans l’espoir que les générations canadiennes à venir développent une perspective globale et deviennent des « citoyens du monde » (Comité consultatif sur la stratégie du Canada en matière d’éducation internationale, 2012). Pourtant, pour garantir que l’étudiant qui participe à un échange profite le plus de son expérience internationale, nous devrons comprendre comment une telle expérience l’influence tant à court terme qu’à long terme. Bien que d’autres études se soient concentrées sur le court terme (le séjour à l’étranger et ses impacts immédiats), peu ont examiné le retour de l’étudiant, sa réintégration dans sa société d’origine et les effets subséquents à long terme, tels que les développements personnels qui pourraient suivre le rapatriement. Cette étude qualitative examine les témoignages de huit étudiants au premier cycle de l’Université de Montréal sur la façon dont ils ont vécu leur rapatriement à Montréal après un échange pédagogique à l’étranger. Quoique certains chercheurs présentent la notion de rapatriement comme une série d’événements déconnectés, notre analyse fait ressortir une tendance similaire dans tous nos témoignages qui nous permet dorénavant de considérer ce rapatriement comme un processus en trois étapes interconnectées. En empruntant à la théorie Intercultural Personhood de Kim (2008), nous sommes désormais en mesure de qualifier ces trois étapes comme étant le stress, l’adaptation et l’évolution. Non seulement cette interprétation nous aide à mieux comprendre les difficultés rencontrées par l’étudiant à l’occasion de son retour, mais elle facilite également l’identification des transformations identitaires qui apparaissent à ce moment-là et la manière dont ces transformations influencent le processus de rapatriement.