384 resultados para exercices combinés
Resumo:
La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
Face aux données conflictuelles de la littérature sur le VO2 requis d’exercices de boxe (sparring, palettes de frappe et sac de frappe), surtout pour le “vrai” sparring avec coups de poings au visage, une nouvelle méthode basée sur une mesure de VO2 “post-exercice” fut développée, validée (Annexe 1) et utilisée pour ré-évaluer le coût énergétique de ces exercices de boxe. Neufs boxeurs mâles expérimentés, de 22.0±3.5 ans et 71.4±10.9 kg avec un VO2pic de 62.2±4.1 ml·kg-1·min-1 (moyenne ± écart type) furent mesurés lors 1) d’un test progressif maximal sur tapis roulant en laboratoire 2) d’un entrainement standardisé de boxe en gymnase et 3) d’exercices de boxe standardisés en laboratoire. Des VO2 requis de 43.4±5.9, 41.1±5.1, 24.7±6.1, 30.4±5.8 et 38.3±6.5 ml·kg-1·min-1, respectivement obtenues pour le sparring, les palettes de frappe et le sac de frappe à 60, 120 et 180 coup·min-1, situe l’intensité de ces exercices autour de ~70 %VO2pic.
Resumo:
Cette étude porte sur les usages des TIC des étudiants universitaires du Cameroun. Elle se situe dans un contexte de l’enseignement supérieur camerounais en pleine mutation par les TIC. Elle vise donc à mieux comprendre les utilisations des TIC qui influencent l’apprentissage et la motivation académique chez les étudiants universitaires du Cameroun. Pour atteindre cet objectif, quatre principaux axes d’étude sont envisagés : -Les usages des TIC des étudiants universitaires camerounais; -Les perceptions des étudiants sur l’usage des TIC dans leur formation; -L’impact des TIC sur l’apprentissage des étudiants universitaires du Cameroun ; -L’impact des TIC sur la motivation académique des étudiants universitaires en apprentissage. La typologie de De Vries (2001) adoptée, qui est bâtie sur plusieurs variables d’apprentissage en lien avec les TIC (lire, faire des exercices, dialogue, jouer, explorer, manipuler, observer, construire et discuter), a facilité l’élaboration d’un portrait des usages des TIC des étudiants universitaires camerounais. Pour vérifier si les TIC ont un lien avec l’acquisition du savoir visée par un cours chez les étudiants camerounais, nous avons eu recours à la taxonomie de Bloom (1956) révisée par Lorin (2001). Cette taxonomie est constituée des verbes d’action qui décrivent des opérations cognitives d’apprentissage et spécifient des activités d’apprentissage liée aux TIC en terme de « capacité à ». Aussi, les résultats de Barrette (2005) sur les effets des TIC sur l’apprentissage (amélioration des résultats académiques, développement des opérations cognitives, amélioration de la motivation et intérêt des étudiants) nous ont servi de balises pour mieux comprendre les influences des TIC sur l’apprentissage des étudiants universitaires. La littérature sur l’impact des TIC sur la motivation académique a révélé que les sentiments d'autodétermination, de compétence et d'affiliation influencent la motivation des étudiants. Ainsi la théorie retenue de l'autodétermination de Deci et Ryan (1985, 1991, 2000) nous permet de mieux cerner le concept de la motivation dans cette étude. Cette recherche se fonde sur une méthodologie de type mixte, comportant plusieurs sources de données collectées (Savoie-Zajc et Karsenti (2000)): entrevues individuelles semi dirigées avec des étudiants (n = 9), observations participantes d’étudiants (n=2), observations participantes de groupes d’étudiants (n = 3), questionnaire (n=120). La thèse suit un mode de présentation par articles, chacun des articles étant en lien avec l’un des objectifs de la recherche. Les résultats obtenus confortent l’hypothèse d’une utilisation des TIC à des fins académiques par des étudiants dans le campus ainsi que dans les cybercafés. Autrement dit, la recherche dresse un portrait des usages des TIC des étudiants universitaires camerounais en mettant en évidence les types d’utilisation multivariés rencontrés. Les résultats font aussi ressortir que les TIC sont des outils didactiques efficaces pour faciliter la compréhension des situations complexes des cours suivis par les étudiants. Cette recherche a donné lieu à l’adaptation de l’échelle de mesure EMITICE, un instrument de mesure de la motivation lors de l'intégration des TIC dans l'enseignement, qui a permis de déterminer les variations de la motivation des étudiants et de mettre en évidence une comparaison de l'évolution du type de leur motivation.
Resumo:
Notre recherche s’intéresse à la transformation des rapports aux nombres rationnels d’élèves de 1re secondaire présentant des difficultés d’apprentissage. Comme le montrent plusieurs recherches, le défi majeur auquel sont confrontés les enseignants, ainsi que les chercheurs, est de ne pas s’enliser dans le cercle vicieux d’une réduction des enjeux de l’apprentissage des nombres rationnels et des possibilités d’apprentissage de l’élève en difficultés d’apprentissage, cet élève n’ayant pas ainsi la chance de mettre à l’épreuve ses connaissances, d’oser s’engager dans une démarche de construction de connaissances et d’apprécier les effets de son engagement cognitif. Afin de relever ce défi, nous avons misé sur l’intégration harmonieuse de situations problèmes. Il nous a semblé que, dans une démarche d’acculturation, l’approche écologique soit tout indiquée pour penser une «dé-transposition/re-transposition didactique» (Antibi et Brousseau, 2000) et reconstruire une mémoire porteuse d’espoirs (Brousseau et Centeno, 1998). Notre recherche vise à: 1) caractériser la progression des démarches d’acculturation institutionnelle de l’enseignant, du chercheur et des élèves et leurs effets sur les processus d’élaboration et de gestion des situations d’enseignement; 2) préciser l’évolution des connaissances, des habitus et des rapports des élèves aux nombres rationnels. Notre intégration en classe, d’une durée de 6 mois, nous a permis d’apprécier les effets du processus d’acculturation. Nous avons noté des changements importants dans la topogénèse et la chronogénèse des savoirs (Mercier, 1995); alors qu’à notre entrée, l’enseignante adoptait la démarche suivante, soit effectuer un exposé des savoirs et des démarches que les élèves devaient consigner dans leurs notes de cours, afin de pouvoir par la suite s’y référer pour effectuer des exercices et résoudre des problèmes, elle modifiait progressivement cette démarche en proposant des problèmes qui pouvaient permettre aux élèves de coordonner diverses connaissances et de construire ainsi des savoirs auxquels ils pouvaient faire référence dans la construction de leurs notes de cours qu’ils pouvaient par la suite consulter pour effectuer divers exercices. Nous avons également pu apprécier les effets de l’intégration de diverses représentations des nombres rationnels sur l’avancée du temps didactique (Mercier, 1995) et la transformation des rapports et habitus des élèves aux nombres rationnels (Bourdieu, 1980). Ces changements se sont manifestés, entre autres, par : a) un investissement important lors de situations complexes; b) l’adoption de pratiques mathématiques plus attentives aux données numériques et aux relations entre ces données; c) l’apparition de conduites « inusitées » [ex. coordination de divers registres sémiotiques,exploitation de compositions additives/multiplicatives et d’écritures non conventionnelles]. De telles conduites sont similaires à celles observées dans plusieurs recherches effectuées auprès d’une population d’élèves qui ne présentent pas de difficultés d’apprentissage (Moss et Case, 1999). Les résultats de notre recherche soutiennent donc l’importance indéniable de considérer les élèves en difficultés comme étant mathématiquement compétents, comme le soulignent Empson (2003) et Houssart (2002). Il nous semble enfin important de souligner que le travail sur la représentation des nombres rationnels a constitué une niche particulièrement fertile, pour un travail fondamental sur les nombres rationnels, travail qui puisse permettre aux élèves de poursuivre plus harmonieusement leurs apprentissages, les nombres rationnels étant des objets de savoir incontournables.
Resumo:
L’aménagement du territoire est le résultat de différents processus économiques, politiques, sociaux, culturels et environnementaux. Le territoire peut être vu de différentes manières et reflète les visions et les intérêts des acteurs qui le construisent. L'objectif principal de cette thèse consiste à explorer les dynamiques qui soutiennent l'aménagement de Bogota, capitale de la Colombie, et d’une municipalité avoisinant Soacha. L'analyse se concentre sur trois aspects qui correspondent aux objectifs spécifiques de cette étude : les récentes politiques publiques d'aménagement du territoire qui régissent la zone étudiée, le rôle des acteurs sociaux et les relations urbano-rurales créées dans ce nouveau contexte. La thèse souligne des éléments contextuels qui servent à comprendre les transformations récentes de Bogota et de Soacha dans leurs implications spatiales. Différents processus ont apparus dans la nouvelle géographie de cette région, y compris la mondialisation, les transformations économiques, les nouvelles lois relatives à l'aménagement du territoire, les nouvelles formes de participation, ainsi que les décisions des administrations municipales qui ont contribué à établir ce nouvel ordre. Les éléments théoriques traitées dans cette étude privilégient deux perspectives ou visions du territoire : 1) celle utilisée par l'État où le territoire est considéré comme un espace limité par des frontières; et 2) la perspective culturaliste où le territoire est défini par son appropriation et par par l’identité qu’il confère. Cependant, une nouvelle tendance émerge à travers l'intégration de ces deux perspectives, autant en Colombie que dans d’autres pays. Ainsi, l'analyse démontre que de nouveaux acteurs ont émergé, par exemple le Conseil territorial de la planification qui représente la concrétisation du discours de participation communautaire exprimé dans différentes lois. De plus, la population paysanne qui a résisté à l'expansion urbaine de Bogota constitue un acteur primordial. Les nouveaux patrons de relations urbaine-rurale démontrent une très grande diversité d'activités et de fonctions présentes dans cette nouvelle « frontière » très dynamique où des éléments urbains et ruraux sont combinés, toujours présents mais aussi toujours en évolution.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Étude pilote d‘un programme d‘exercices proactifs dans la maladie de parkinson stades léger à modéré
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Des études de liaison et d’association génétiques ont permis d’identifier certains des facteurs de risque génétiques aux maladies inflammatoires de l’intestin (MII) dans la région chromosomique 3p21. Dans cette région, le polymorphisme nucléotidique simple (SNP) codant non-synonyme du gène MST1, rs3197999, encodant pour la mutation R689C, a été associé et répliqué à la fois à la colite ulcéreuse (CU) et à la maladie de Crohn (MC). Un autre SNP, corrélé à des SNP codants non-synonymes du gène MST1R, a également été associé à la MC. Afin de déterminer si d’autres variantes des gènes MST1 et MST1R sont associés à la CU, nous avons testé pour association des SNP de ces gènes. Seul un proxy de R689C a montré un signal d’association significatif aux MII, ce qui suggère que R689C est la variante causale aux MII dans le gène MST1. En cherchant à déterminer si la région 3p21 contenait plusieurs signaux d’association mutuellement indépendants, trois SNP ont été identifiés comme possible facteurs de risque indépendants, et ont été génotypés dans des cas de CU et de MC et des témoins, puis nos résultats d’association ont été combinés à ceux provenant de trois autres cohortes indépendantes. Les trois SNP, R689C (MST1), rs6802890 et rs7629936 (CDHR4), sont associés aux MII, mais une étude d’association conditionnelle suggère qu’il existe en fait deux signaux d’association mutuellement indépendants dans la région 3p21. Le signal principal provient de R689C, une mutation de la protéine MSP. Cette protéine a un rôle dans l’inflammation chez les macrophages murins, et la migration, la cicatrisation et la survie chez les cellules épithéliales. Dans cette étude, le rôle de la MSP a été investigué dans des modèles de macrophages humains et de cellules épithéliales de côlon, et seule la phosphorylation d’AKT, un acteur dans la voie de signalisation de la survie cellulaire, a été modulée par la MSP dans nos modèles. Ce projet a donc permis d’apporter des connaissances sur les facteurs de risques génétiques aux MII dans la région 3p21, en identifiant 2 signaux d’association indépendants, et en nous informant sur le rôle de MST1, duquel provient le signal d’association principal, chez les cellules humaines.
Resumo:
Le torticolis postural est une affection courante dans le milieu pédiatrique en particulier depuis que les parents ont adopté les lignes directrices de la campagne « Back to Sleep ». Habituellement, un programme d’exercices à domicile est présenté aux parents afin de promouvoir une récupération optimale toutefois, peu d’outils existent pour les accompagner dans la réalisation de ces exercices. L'objectif de cette étude était d'évaluer l'impact de l'addition du nouveau livret d’intervention pour le torticolis (LIT) sur la résolution du torticolis (restitution de l’amplitude passive du cou), le stress parental et la satisfaction à l’égard du traitement reçu et sur l'observance des parents au traitement à domicile. Cinquante-huit nourrissons référés en physiothérapie pour un torticolis postural ont été recrutés et randomisés au cours de leur première visite à l’un ou l’autre de ces 2 groupes: Physiothérapie + LIT (n = 29) ou Physiothérapie + traitement standard (n = 29). Des évaluateurs ont évalué à l’aveugle les patients 1 et 3 mois après leur visite initiale, 30 minutes avant leur consultation en physiothérapie. L’amplitude articulaire passive du cou en rotation était mesurée à l’aide d’un goniomètre arthrodial. Le niveau de stress parental a été évalué en utilisant l’Indice de Stress Parental (ISP). Les parents ont reçu l’ISP à la fin de la visite initiale et ont été invités à le compléter à la maison et le retourner à la visite suivante en physiothérapie ou à la visite de 1 mois. La satisfaction des parents à l’égard du traitement reçu a été évaluée en utilisant la Mesure du Processus de Soins (MPOC-56) à 3 mois. L'observance au traitement a été estimée en demandant aux parents de rapporter la durée quotidienne de positionnement des nourrissons sur le ventre pendant la semaine dernière à l’évaluation. L’analyse de nos données consista à d’abord décrire les performances des 2 groupes à l’aide de statistiques descriptives. Ensuite, des tests de t ont permis de comparer le changement à la rotation passive cervicale, entre la visite de 1 mois et la visite initiale ainsi qu’entre la visite de 3 mois et la visite initiale. Des tests de t ont aussi été calculés pour comparer les scores de chaque sous-échelle du ISP (stress parental) et du MPOC-56 (satisfaction des soins) entre les groupes. Le test du chi carré a été réalisé pour comparer l'adhérence entre les deux groupes à 1 et 3-mois. Les résultats ont montré une tendance à un plus grand changement de la rotation passive du cou à 1-mois dans le groupe LIT (Intervalle de Confiance à 95% = 95% IC= 1,97-8,77 ; p = 0, 17) mais pas à 3 mois. Les parents du groupe LIT ont obtenu des scores de stress plus faibles après avoir reçu l'outil d'intervention (95%IC= 49,20-57,94 ; p = 0, 01) et ont déclaré être plus satisfaits que les parents du groupe témoin pour le traitement reçu (95%IC= 6,7-6,8 ; p=0,03) e o partenariat avec les thérapeutes (95%IC= 6,3-6,9 ; p<0,001). Enfin, l'observance au traitement a été plus élevée dans le groupe LIT que dans le groupe contrôle en particulier à 3-mois (p = 0.01). Le nouveau livret d'intervention pour le torticolis accompagné d'un traitement de physiothérapie a tendance à contribuer à une restitution plus rapide de l’amplitude passive du cou en rotation, peut aider à diminuer le niveau de stress parental, contribuer à une plus grande satisfaction à l’égard du traitement et améliorer l’observance au traitement à domicile.
Resumo:
Le benzo-a-pyrène (BaP) est un cancérogène reconnu pour l'homme, contaminant présent dans notre environnement. Il cause des dommages à l'ADN que nous avons mesurés dans les lymphocytes exposés à de faibles concentrations de BaP, provenant de 20 jeunes volontaires non fumeurs et en santé. Suite à l’exposition, la fréquence des micronoyaux (MN) augmente significativement et décrit une courbe dose-réponse non linéaire, suggérant le déclenchement du processus de détoxification et la réparation de l’ADN. Des différences entre les individus et entre les sexes sont présentes dans la réponse génotoxique produite par le BaP. Le test des aberrations chromosomiques montre que le pourcentage de chromosomes cassés augmente significativement dans les cellules exposées au BaP. Combinés avec l'augmentation de la fréquence des MN, nos résultats confirment l'effet clastogène du BaP déjà rapporté dans la littérature. L’hybridation in situ en fluorescence (FISH) des MN avec une sonde pancentromérique est aussi utilisée pour établir leur mécanisme de formation. La FISH révèle que la majorité des MN formés après une exposition au BaP contient un centromère et plus, ce qui est significativement différent de la condition non exposée. Plus précisément, dans nos conditions expérimentales, les MN induits par le BaP contiennent surtout trois centromères et plus, indiquant également la présence d'un effet aneugène. L'effet clastogène du BaP est relié à son rôle d'initiateur dans la cancérogenèse, alors que l'effet aneugène le relierait à l'étape de progression. Ces résultats sont importants puisque l'exposition aux composés de la classe du BaP est de longue durée (cigarette, air pollué).