921 resultados para Calcul quantique expérimental
Resumo:
La santé au travail a été reconnue comme un élément important du développement économique mondial à long terme. Cependant, les projections statistiques laissent poindre des préoccupations sur deux plans : la main d’œuvre vieillit et leur bien-être psychologique se détériore. Pour pallier ses problématiques, des leaders forts sont recherchés pour cultiver des climats de confiance de même que veiller au bien-être de leurs collaborateurs. Cette thèse a pour objet d’étudier les liens entre le leadership authentique (LA), le climat de travail et le bien-être des personnes. Pour y parvenir, deux recherches ont été réalisées. La première étude visait à se doter d’un instrument de mesure de LA en français. Le « Authentic Leadership Questionnaire » a été traduit et validé. Les résultats des analyses factorielles confirmatoires effectuées sur deux échantillons de travailleurs québécois (N = 365, N = 859) ont montré que c’est une structure de deuxième ordre avec les quatre facteurs associés au LA qui offre le meilleur ajustement aux données. Le LA a ensuite été mis en lien avec des corrélats (authenticité du leader, bien-être psychologique du leader, bien-être psychologique des subordonnés, confiance et justice interpersonnelle). Toutes les hypothèses ont été soutenues à l’exception d’une, soit celle liant le LA autorapporté par le leader et son bien-être psychologique. La deuxième étude a testé un modèle de médiation où le climat de travail a été postulé comme médiateur de la relation entre le LA et le bien-être des travailleurs. Un devis non expérimental avec six mois entre les passations a été utilisé. Quatre cent six (406) infirmières et infirmiers ont rempli des questionnaires mesurant le LA et le climat perçus au travail, et six mois plus tard, une mesure de bien-être psychologique au travail. Les résultats découlant d’une analyse de médiation par la technique de « boostrapping » ont révélé que le LA est associé au bien-être des subordonnés par l’entremise d’un climat de travail positif qu’il contribue à favoriser. Au terme de cette recherche doctorale, on commente les résultats, expose les principaux apports, présente des retombées pratiques, discute des limites et propose des pistes de recherche future.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Ce mémoire, composé d'un article en collaboration avec Monsieur Luc Vinet et Vincent X. Genest, est la suite du travail effectué sur les systèmes quantiques super-intégrables définis par des Hamiltoniens de type Dunkl. Plus particulièrement, ce mémoire vise l'analyse du problème de Coulomb-Dunkl dans le plan qui est une généralisation du système quantique de l'atome d'hydrogène impliquant des opérateurs de réflexion sur les variables x et y. Le modèle est défini par un potentiel en 1/r. Nous avons tout d'abord remarqué que l'Hamiltonien est séparable en coordonnées polaires et que les fonctions d'onde s'écrivent en termes de produits de polynômes de Laguerre généralisés et des harmoniques de Dunkl sur le cercle. L'algèbre générée par les opérateurs de symétrie nous a également permis de confirmer le caractère maximalement super-intégrable du problème de Coulomb-Dunkl. Nous avons aussi pu écrire explicitement les représentations de cette même algèbre. Nous avons finalement trouvé le spectre de l'énergie de manière algébrique.
Resumo:
La méthode de factorisation est appliquée sur les données initiales d'un problème de mécanique quantique déja résolu. Les solutions (états propres et fonctions propres) sont presque tous retrouvés.
Resumo:
L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.
Resumo:
Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.
Resumo:
Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
L'élongation cellulaire de cellules cultivant bout comme hyphae fongueux, inculquez hairs, des tubes de pollen et des neurones, est limité au bout de la cellule, qui permet à ces cellules d'envahir l'encerclement substrate et atteindre une cible. Les cellules cultivant bout d'équipement sont entourées par le mur polysaccharide rigide qui régule la croissance et l'élongation de ces cellules, un mécanisme qui est radicalement différent des cellules non-walled. La compréhension du règlement du mur de cellule les propriétés mécaniques dans le contrôle de la croissance et du fonctionnement cellulaire du tube de pollen, une cellule rapidement grandissante d'équipement, est le but de ce projet. Le tube de pollen porte des spermatozoïdes du grain de pollen à l'ovule pour la fertilisation et sur sa voie du stigmate vers l'ovaire le tube de pollen envahit physiquement le stylar le tissu émettant de la fleur. Pour atteindre sa cible il doit aussi changer sa direction de croissance les temps multiples. Pour évaluer la conduite de tubes de pollen grandissants, un dans le système expérimental vitro basé sur la technologie de laboratoire-sur-fragment (LOC) et MEMS (les systèmes micro-électromécaniques) ont été conçus. En utilisant ces artifices nous avons mesuré une variété de propriétés physiques caractérisant le tube de pollen de Camélia, comme la croissance la croissance accélérée, envahissante et dilatant la force. Dans une des organisations expérimentales les tubes ont été exposés aux ouvertures en forme de fente faites de l'élastique PDMS (polydimethylsiloxane) la matière nous permettant de mesurer la force qu'un tube de pollen exerce pour dilater la croissance substrate. Cette capacité d'invasion est essentielle pour les tubes de pollen de leur permettre d'entrer dans les espaces intercellulaires étroits dans les tissus pistillar. Dans d'autres essais nous avons utilisé l'organisation microfluidic pour évaluer si les tubes de pollen peuvent s'allonger dans l'air et s'ils ont une mémoire directionnelle. Une des applications auxquelles le laboratoire s'intéresse est l'enquête de processus intracellulaires comme le mouvement d'organelles fluorescemment étiqueté ou les macromolécules pendant que les tubes de pollen grandissent dans les artifices LOC. Pour prouver que les artifices sont compatibles avec la microscopie optique à haute résolution et la microscopie de fluorescence, j'ai utilisé le colorant de styryl FM1-43 pour étiqueter le système endomembrane de tubes de pollen de cognassier du Japon de Camélia. L'observation du cône de vésicule, une agrégation d'endocytic et les vésicules exocytic dans le cytoplasme apical du bout de tube de pollen, n'a pas posé de problèmes des tubes de pollen trouvés dans le LOC. Pourtant, le colorant particulier en question a adhéré au sidewalls du LOC microfluidic le réseau, en faisant l'observation de tubes de pollen près du difficile sidewalls à cause du signal extrêmement fluorescent du mur. Cette propriété du colorant pourrait être utile de refléter la géométrie de réseau en faisant marcher dans le mode de fluorescence.
Resumo:
Les adolescents-hockeyeurs peuvent être affligés de troubles musculosquelettiques (TMS) résultant d’un excès de tension musculaire lequel peut mener à des déformations ou déséquilibres musculaires ainsi qu’à une attitude posturale inadéquate. Les conséquences de ces changements mènent souvent à une surcharge inutile du système musculosquelettique (SMS), à la perturbation des mécanismes du contrôle postural et éventuellement à l’apparition de douleurs musculaires et articulaires. Les interventions qui s’attaquent aux TMS par une rééquilibration de la tension musculaire sont peu nombreuses. Les interventions qui s’attaquent aux TMS par une normalisation de la tension musculaire sont peu nombreuses. La Reconstruction Posturale® (RP), testée cliniquement, est l’une d’entre elles. Dans un premier temps, cette thèse visait à identifier les caractéristiques du contrôle postural chez les adolescents-hockeyeurs de niveau élite lorsque le système somatosensoriel est mis à l’épreuve en position debout quasi statique pieds nus et en patins. Dans un deuxième temps, nous avons évalué l’impact d’une intervention en RP sur des variables cliniques et biomécaniques, chez ces athlètes qui souffrent de TMS. Soixante-sept adolescents-hockeyeurs de niveau élite âgés de 15 à 18 ans ont participé à l’étude. Le contrôle postural de cinquante-sept joueurs a été évalué en position debout sur deux plateformes de force les yeux ouverts et les yeux fermés, pieds nus sur une surface dure et sur une mousse. De ce groupe, trente-cinq sujets ont également été évalués en patins, les yeux ouverts et les yeux fermés. Par la suite, neuf adolescents-hockeyeurs souffrant de TMS, ont été sélectionnés pour participer au protocole d’intervention thérapeutique en RP qui consistait en l’application de six séances de thérapie prodiguées sur une période de six semaines. Le déplacement du centre de pression (CP) sous les pieds a été calculé dans les directions antéro-postérieure (AP) et médio-latérale (ML). La vélocité moyenne du CP, le déplacement moyen du CP et l’étendue du CP ont été retenus pour rendre compte de la performance du contrôle posturale. D’autre part, l’asymétrie de mise en charge, la trajectoire du CP sous les pieds gauche et droit, le CPc pour rendre compte de la stratégie de chevilles et le CPv pour rendre compte de la stratégie de hanches ont été retenues pour identifier les stratégies utilisées pour maintenir l’équilibre. L’impact de l’intervention en RP a été évalué à l’aide de trois variables cliniques soit la douleur à l’aide de l’échelle visuelle analogue (ÉVA), la capacité fonctionnelle à l’aide d’un un questionnaire autoadministré et des photographies de la posture debout pour rendre compte des variables posturales biomécaniques. Nos résultats montrent que chez les adolescents-hockeyeurs la performance du contrôle postural en position debout statique est davantage perturbée par les changements somatosensoriels en direction ML alors qu’en AP, la perte d’informations visuelles ainsi que des changements somatosensoriels affectent la performance. Dans toutes les conditions expérimentales et dans les deux directions, nous avons observé une vélocité du CP remarquablement élevée, variant entre 18 et 22 mm/s. Au niveau des stratégies et indépendamment de la condition expérimentale, nous avons observé une dominance presque complète de la stratégie de cheville en AP alors qu’en ML, la stratégie de hanche dominait avec une contribution de la stratégie de cheville de plus de 20 %. En patins, en direction ML, aucun changement significatif de la performance n’a été observé. Toutefois en AP, nous avons observé une augmentation significative de la vélocité du CP, yeux ouverts et yeux fermés ainsi qu’une augmentation significative de l’étendue, yeux ouverts seulement. Au niveau des stratégies, la stratégie de cheville domine en AP et la stratégie de hanche domine en ML avec une contribution plus modeste de la stratégie de cheville qui était inférieure à 12 %. Chez les adolescents-hockeyeurs souffrant de TMS, post-intervention, nos résultats indiquent une diminution significative de la douleur et une amélioration des capacités fonctionnelles ainsi que de l’attitude posturale. Pré intervention en direction ML, nous avons observé une contribution significativement plus élevée de la stratégie de cheville au contrôle du CPnet et un retour vers des valeurs normales post-intervention. L’impact de l’intervention thérapeutique sur la performance du contrôle postural s’est avéré non significatif en ML et en AP.
Resumo:
Introduction: L'arthrose est caractérisée par une destruction progressive du cartilage, une inflammation synoviale, et un remodelage de l’os sous-chondral avec une production excessive des médiateurs inflammatoires et cataboliques. Nous avons démontré que le niveau du 4-hydroxynonénal (4-HNE), un produit de la peroxydation lipidique, est augmenté dans le cartilage humain arthrosique sans qu’on sache le mécanisme exacte impliqué dans l’augmentation de cette molécule. Des données de la littérature indiquent que l’accumulation du HNE est contrôlée par l’action de la glutathione S-transférase A4-4 (GSTA4-4), une enzyme impliquée dans la détoxification du HNE. Au niveau transcriptionel, l’expression de cette enzyme est régulée par la transactivation du facteur de transcription Nrf2. Objectif: L’objectif de cette étude vise à démontrer que l’augmentation du HNE dans le cartilage arthrosique est attribuée, en partie, à l’altération de l’expression de la GSTA4-4 et de Nrf2. Méthode: Le niveau d’expression de la GSTA4-4 et de Nrf2 a été mesurée par Western blot et par PCR en temps réel dans le cartilage humain arthrosique et dans le cartilage provenant des souris atteintes d’arthrose. Pour démontrer le rôle du Nrf2 dans l’arthrose, les chondrocytes humains arthrosiques ont été traités par l’interleukine 1beta (IL-1β) ou par le H2O2 en présence ou en absence des activateurs du Nrf2 tels que le Protandim®, AI, et du 6-Gingérol. Par ailleurs, les chondrocytes ont été transfectés par un vecteur d’expression de Nrf2 puis traités par l’IL-β. En utilisant le modèle d’arthrose chez la souris, les animaux ont été traités par voie orale de 10 mg/kg/jour de Protandim® pendant 8 semaines. Résultats: Nous avons observé une diminution significative de l’expression de la GSTA4-4 et de Nrf2 dans le cartilage humain et murin arthrosique. L'activation de Nrf2 bloque la stimulation de la métalloprotéinase-13 (MMP-13), la prostaglandine E2 (PGE2) et de l'oxyde nitrique (NO) par l’IL-1β. En outre, nous avons montré que l'activation Nrf2 protège les cellules contre la mort cellulaire induite par H2O2. Fait intéressant, l'administration orale de Protandim® réduit la production du HNE par l'intermédiaire de l’activation de la GSTA4. Nous avons démontré que le niveau d’expression de la GSTA4-4 et de Nrf2 diminue dans le cartilage provenant des patients et des souris atteints d’arthrose. De plus, la surexpression de ce facteur nucléaire Nrf2 empêche la production du HNE et la MMP-13 et l’inactivation de la GSTA4-4. Dans notre modèle expérimental d’arthrose induite par déstabilisation du ménisque médial chez la souris, nous avons trouvé que l'administration orale de Protandim® à 10 mg / kg / jour réduit les lésions du cartilage. Conclusion: Cette étude est de la première pour démontrer le rôle physiopathologique du Nrf2 in vitro et in vivo. Nos résultats démontrent que l’activation du Nrf2 est essentielle afin de maintenir l’expression de la GSTA4-4 et de réduire le niveau du HNE. Le fait que les activateurs du Nrf2 abolissent la production de la HNE et aussi un certain nombre de facteurs connus pour être impliqués dans la pathogenèse de l’arthrose les rend des agents cliniquement utiles pour la prévention de la maladie.
Resumo:
Contexte: L'obésité chez les jeunes représente aujourd’hui un problème de santé publique à l’échelle mondiale. Afin d’identifier des cibles potentielles pour des stratégies populationnelles de prévention, les liens entre les caractéristiques du voisinage, l’obésité chez les jeunes et les habitudes de vie font de plus en plus l’objet d’études. Cependant, la recherche à ce jour comporte plusieurs incohérences. But: L’objectif général de cette thèse est d’étudier la contribution de différentes caractéristiques du voisinage relativement à l’obésité chez les jeunes et les habitudes de vie qui y sont associées. Les objectifs spécifiques consistent à: 1) Examiner les associations entre la présence de différents commerces d’alimentation dans les voisinages résidentiels et scolaires des enfants et leurs habitudes alimentaires; 2) Examiner comment l’exposition à certaines caractéristiques du voisinage résidentiel détermine l’obésité au niveau familial (chez le jeune, la mère et le père), ainsi que l’obésité individuelle pour chaque membre de la famille; 3) Identifier des combinaisons de facteurs de risque individuels, familiaux et du voisinage résidentiel qui prédisent le mieux l’obésité chez les jeunes, et déterminer si ces profils de facteurs de risque prédisent aussi un changement dans l’obésité après un suivi de deux ans. Méthodes: Les données proviennent de l’étude QUALITY, une cohorte québécoise de 630 jeunes, âgés de 8-10 ans au temps 1, avec une histoire d’obésité parentale. Les voisinages de 512 participants habitant la Région métropolitaine de Montréal ont été caractérisés à l’aide de : 1) données spatiales provenant du recensement et de bases de données administratives, calculées pour des zones tampons à partir du réseau routier et centrées sur le lieu de la résidence et de l’école; et 2) des observations menées par des évaluateurs dans le voisinage résidentiel. Les mesures du voisinage étudiées se rapportent aux caractéristiques de l’environnement bâti, social et alimentaire. L’obésité a été estimée aux temps 1 et 2 à l’aide de l’indice de masse corporelle (IMC) calculé à partir du poids et de la taille mesurés. Les habitudes alimentaires ont été mesurées au temps 1 à l'aide de trois rappels alimentaires. Les analyses effectuées comprennent, entres autres, des équations d'estimation généralisées, des régressions multiniveaux et des analyses prédictives basées sur des arbres de décision. Résultats: Les résultats démontrent la présence d’associations avec l’obésité chez les jeunes et les habitudes alimentaires pour certaines caractéristiques du voisinage. En particulier, la présence de dépanneurs et de restaurants-minutes dans le voisinage résidentiel et scolaire est associée avec de moins bonnes habitudes alimentaires. La présence accrue de trafic routier, ainsi qu’un faible niveau de prestige et d’urbanisation dans le voisinage résidentiel sont associés à l’obésité familiale. Enfin, les résultats montrent qu’habiter un voisinage obésogène, caractérisé par une défavorisation socioéconomique, la présence de moins de parcs et de plus de dépanneurs, prédit l'obésité chez les jeunes lorsque combiné à la présence de facteurs de risque individuels et familiaux. Conclusion: Cette thèse contribue aux écrits sur les voisinages et l’obésité chez les jeunes en considérant à la fois l'influence potentielle du voisinage résidentiel et scolaire ainsi que l’influence de l’environnement familial, en utilisant des méthodes objectives pour caractériser le voisinage et en utilisant des méthodes statistiques novatrices. Les résultats appuient en outre la notion que les efforts de prévention de l'obésité doivent cibler les multiples facteurs de risque de l'obésité chez les jeunes dans les environnements bâtis, sociaux et familiaux de ces jeunes.
Resumo:
L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.