808 resultados para Méthodes épidémiologiques
Resumo:
L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.
Resumo:
Objectifs: Le but de cette étude clinique était de comparer un groupe d’adultes ayant un parodonte sain avec un groupe d’adultes atteints de parodontite chronique en terme de risque carieux et mesures cliniques et microbiologiques de la carie. Méthodes: Quatre-vingt-seize individus ont été divisés en deux groupes en fonction de leur état de santé parodontal et ont été appariés pour l'âge, le sexe et l'origine ethnique. Trente-huit sujets étaient atteints de parodontite chronique définie comme ayant au moins quatre dents avec ≥ 1 site avec une profondeur de sondage ≥ 4 mm et une perte d'attache clinique ≥ 2 mm, et 58 sujets présentaient un parodonte sain. Par la suite, les groupes ont été subdivisés en deux groupes en fonction de leur statut carieux : les participants ayant au moins une lésion carieuse non traitée sur une surface dentaire et ceux n’ayant pas de lésion carieuse non traitée. Les données ont été recueillies par le biais d’un questionnaire, un examen clinique et des échantillons de plaque supra- et sous-gingivale. L’évaluation de la charge buccale de Streptococcus mutans et de six agents pathogènes parodontaux a été réalisée par la technique d'amplification de la réaction en chaine de la polymérase (PCR). Les données ont été analysées à l'aide d’analyses statistiques descriptives et bivariées. Résultats: Les individus atteints de parodontite chronique étaient 3,5 fois plus susceptibles d'avoir des caries que les individus en bonne santé (OR 3,5 ; IC: 1,5 - 8,3 ; P = 0,006). Les sujets à la fois atteints de parodontite chronique et de caries dentaires ont eu un niveau d’éducation significativement plus faible que les sujets ayant un parodonte sain et sans caries dentaires (OR 6,0 ; IC: 1,7 à 21,7 ; P = 0,04). La proportion de sujets ayant une charge buccale élevée de Porphyromonas gingivalis (P. g.) et Treponema denticola (T. d.) était significativement plus élevée chez les patients atteints de parodontite chronique et de carie que chez les patients sains présentant des caries (P. g.: OR 8,6 ; IC: 2,4 - 30,3 ; P = 0,004 et T. d.: OR 10,0 ; CI: 2,6 - 38.1 ; P = 0,003). Conclusions: Les résultats de cette étude suggèrent que, chez les sujets adultes atteints de la parodontite chronique, la fréquence des caries est plus élevée que chez les sujets ayant un parodonte sain. De plus, le faible niveau d'éducation influence négativement le statut parodontal des individus.
Resumo:
L’inférence de génomes ancestraux est une étape essentielle pour l’étude de l’évolution des génomes. Connaissant les génomes d’espèces éteintes, on peut proposer des mécanismes biologiques expliquant les divergences entre les génomes des espèces modernes. Diverses méthodes visant à résoudre ce problème existent, se classant parmis deux grandes catégories : les méthodes de distance et les méthodes de synténie. L’état de l’art des distances génomiques ne permettant qu’un certain répertoire de réarrangements pour le moment, les méthodes de synténie sont donc plus appropriées en pratique. Nous proposons une méthode de synténie pour la reconstruction de génomes ancestraux basée sur une définition relaxée d’adjacences de gènes, permettant un contenu en gène inégal dans les génomes modernes causé par des pertes de gènes de même que des duplications de génomes entiers (DGE). Des simulations sont effectuées, démontrant une capacité de former une solution assemblée en un nombre réduit de régions ancestrales contigües par rapport à d’autres méthodes tout en gardant une bonne fiabilité. Des applications sur des données de levures et de plantes céréalières montrent des résultats en accord avec d’autres publications, notamment la présence de fusion imbriquée de chromosomes pendant l’évolution des céréales.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières En vue de l’obtention du grade de Maîtrise ès Sciences (M. Sc.) Option formation en sciences infirmière.
Resumo:
Au début de l’adolescence, on observe une diminution marquée du niveau de pratique d’activité physique (PAP). Les pairs ont été identifiés comme des déterminants importants de la PAP à cette période de la vie. Notre étude explore le rôle des dynamiques sociales entre les pairs dans les perceptions de la PAP d’adolescents Québécois. Des entretiens semi-directifs ont été réalisés auprès de 12 garçons et 10 filles, âgés entre 12 et 14 ans, issus de trois écoles aux profils socioéconomiques, géographiques (urbain, de banlieue et rural) et ethniques différents. Le guide d’entretien abordait les thèmes de l’amitié, des railleries, des émotions et des interactions sociales vécues dans différents contextes de PAP. Une analyse descriptive des entretiens a été effectuée afin d’identifier les éléments des dynamiques sociales susceptibles d’influencer les perceptions de la PAP dans différents contextes. L’environnement social des cours d’éducation physique (compétences physiques variées, mixité, valorisation de la compétition) semble favoriser des relations inégales et des rapports de pouvoir entre les jeunes. Les perceptions des adolescents concernant ce contexte de pratique sont souvent négatives. Les perceptions favorables à l’activité physique sont plutôt liées à des contextes de pratique que l’on retrouve à l’extérieur du milieu scolaire et où l’environnement social semble favoriser l’émergence de relations d’égal à égal (compétences physiques similaires, groupes de pairs du même sexe). Les résultats de cette étude peuvent guider les intervenants dans la mise en place de conditions d’intervention qui pourront favoriser la pratique d’activité physique.
Resumo:
Pour respecter les droits auteur, la version electronique de cette thèse a été dépouillée de ses documents visuels et audio-visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Ce mémoire consiste en l’étude du comportement dynamique de deux oscillateurs FitzHugh-Nagumo identiques couplés. Les paramètres considérés sont l’intensité du courant injecté et la force du couplage. Juqu’à cinq solutions stationnaires, dont on analyse la stabilité asymptotique, peuvent co-exister selon les valeurs de ces paramètres. Une analyse de bifurcation, effectuée grâce à des méthodes tant analytiques que numériques, a permis de détecter différents types de bifurcations (point de selle, Hopf, doublement de période, hétéroclinique) émergeant surtout de la variation du paramètre de couplage. Une attention particulière est portée aux conséquences de la symétrie présente dans le système.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie
Resumo:
CONTEXTE: Bien que la dysfunction mitochondriale et le stress oxydant jouent des rôles prépondérants dans plusieurs conditions pathologiques, ils n’ont pas été étudiés de façon extensive au niveau du tube digestif qui est constamment exposé aux oxydants (provenant de l’alimentation) et à divers agents pathogènes. L’ingestion simultanée de sels ferreux et d’acide ascorbique peut causer le dommage des macromolécules par oxydation. Le ‘’Nuclear factor erythroid 2 related factor’’ (Nrf2) est un important facteur de transcription sensible au potentiel redox et qui protège contre le stress oxydant en induisant des gènes anti-oxydants et de detoxification par sa liaison à l’élément de réponse antioxydante (ARE). Les fonctions anti-oxydantes et anti-inflammatoires de Nrf2 ont été décrites dans une variété de types cellulaires et de tissus. Cependant son rôle est très peu connu au niveau du tube digestif. OBJECTIFS: Les objectifs sont d’évaluer comment la peroxydation lipidique médiée par le fer/ascorbate (FE/ASC) affecte les fonctions mitochondriales dans les cellules Caco-2/15, et de déterminer l’ampleur de l’implication de Nrf2. MÉTHODES: Le stress oxydant a été induit dans les cellules Caco2/15 en les traitant avec 0.2mm/2mm de FE/ASC. L’augmentation de l’expression de Nrf2 a été obtenue suite au prétraitement des cellules Caco2/15 avec 50 μM d’Olitpraz (OPZ), un puissant activateur. L’invalidation du gène de Nrf2 a été réalisée dans les cellules par transfection avec un vecteur lentiviral contenant un shRNA contre Nrf2. RÉSULTATS: Nos résultats montrent que le traitement des cellules Caco-2/15 avec du FE/ASC (0.2 mm/2 mm) augmente les niveaux du malondialdehyde (MDA), réduit la production d’ATP, entraîne une surcharge mitochondriale de calcium, active l’expression protéique du cytochrome C et de l’AIF (apoptotic inducing factor), réduit l’activité des complexes I, II, 2 III et IV de la chaîne respiratoire mitochondriale, augmente les niveaux de 8-OHdG, un marqueur des dommages à l’ADN mitochondrial, diminue la DNA glycosylase, et altère les expressions génique et protéique des facteurs de transcription mitochondriaux (mtTFA, mtTFB1, mtTFB2). De plus, nos observations montrent que l’induction et l’activation de Nrf2 dans les cellules Caco-2/15 résultent en: une augmentation des enzymes anti-oxydantes endogènes (catalase, glutathion peroxydase, et superoxyde dismutase), une réduction du facteur nucléaire NFκβ et de TNF-α, une augmentation de la production d’ ATP et de l’activité des complexes respiratoires (I, II, III, IV) et de PGC-1α, et une régulation des niveaux de la prohibitine mitochondriale, du Bcl-2 anti-apoptotique et de l’occludine. CONCLUSION: Dans l’ensemble, nos résultats montrent que l’exposition aigüe des cellules Caco-2/15 à la peroxydation par le FE/ASC entraîne des effets pathologiques sur les fonctions mitochondriales et l’intégrité de l’ADN, qui sont abolis par l’induction de Nrf2. Il en ressort que Nrf2 joue un rôle majeur dans la protection de l’épithélium intestinal contre le stress oxydant.
Resumo:
Les troubles reliés à la dépression, l’épuisement professionnel et l’anxiété sont de plus en plus répandus dans notre société moderne. La consommation croissante d’antidépresseurs dans les différents pays du monde est responsable de la récente détection de résidus à l’état de traces dans les rejets urbains municipaux. Ainsi, ces substances dites « émergentes » qui possèdent une activité pharmacologique destinée à la régulation de certains neurotransmetteurs dans le cerveau suscitent maintenant de nombreuses inquiétudes de la part de la communauté scientifique. L’objectif principal de ce projet de doctorat a été de mieux comprendre le devenir de plusieurs classes d’antidépresseurs présents dans diverses matrices environnementales (i.e. eaux de surfaces, eaux usées, boues de traitement, tissus biologiques) en développant de nouvelles méthodes analytiques fiables capables de les détecter, quantifier et confirmer par chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (LC-QqQMS, LC-QqToFMS). Une première étude complétée à la station d’épuration de la ville de Montréal a permis de confirmer la présence de six antidépresseurs et quatre métabolites N-desmethyl dans les affluents (2 - 330 ng L-1). Pour ce traitement primaire (physico-chimique), de faibles taux d’enlèvement (≤ 15%) ont été obtenus. Des concentrations d’antidépresseurs atteignant près de 100 ng L-1 ont également été détectées dans le fleuve St-Laurent à 0.5 km du point de rejet de la station d’épuration. Une seconde étude menée à la même station a permis l’extraction sélective d’antidépresseurs dans trois tissus (i.e. foie, cerveau et filet) de truites mouchetées juvéniles exposées à différentes concentrations d’effluent dilué traité et non-traité à l’ozone. Un certain potentiel de bioaccumulation dans les tissus (0.08-10 ng g-1) a été observé pour les spécimens exposés à l’effluent non-traité (20% v/v) avec distribution majoritaire dans le foie et le cerveau. Une intéressante corrélation a été établie entre les concentrations de trois antidépresseurs dans le cerveau et l’activité d’un biomarqueur d’exposition (i.e. pompe N/K ATPase impliquée dans la régulation de la sérotonine) mesurée à partir de synaptosomes de truites exposées aux effluents. Une investigation de l’efficacité de plusieurs stations d’épuration canadiennes opérant différents types de traitements a permis de constater que les traitements secondaires (biologiques) étaient plus performants que ceux primaires (physico-chimiques) pour enlever les antidépresseurs (taux moyen d’enlèvement : 30%). Les teneurs les plus élevées dans les boues traitées (biosolides) ont été obtenues avec le citalopram (1033 ng g-1), la venlafaxine (833 ng g-1) et l’amitriptyline (78 ng g-1). Des coefficients de sorption expérimentaux (Kd) calculés pour chacun des antidépresseurs ont permis d’estimer une grande sorption des composés sertraline, desméthylsertraline, paroxetine et fluoxetine sur les solides (log Kd > 4). Finalement, un excellent taux d’enlèvement moyen de 88% a été obtenu après ozonation (5 mg L-1) d’un effluent primaire. Toutefois, la caractérisation de nouveaux sous-produits N-oxyde (venlafaxine, desmethylvenlafaxine) par spectrométrie de masse à haute résolution (LC-QqToFMS) dans l’effluent traité à l’ozone a mis en lumière la possibilité de formation de multiples composés polaires de toxicité inconnue.
Resumo:
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène.
Resumo:
Introduction: Bien que la dépense énergétique associée au travail mental ne soit pas plus élevée qu’au repos, des travaux ont mené à la conclusion que la réalisation d’une tâche mentale stressante était reliée à une augmentation de la consommation énergétique. Il est suggéré que le travail mental stressant produise des effets physiologiques modulant l’apport alimentaire. Le but du projet était donc de déterminer, dans une population d’adolescents masculins, si l’introduction d’une période d’activité physique pourrait contrebalancer les effets négatifs du travail intellectuel dans le contrôle de l’ingestion et du bilan énergétiques. Méthodes: Douze étudiants de sexe masculin, sans surplus de poids et âgés entre 14 et 20 ans, ont été évalués au CHU Sainte-Justine. Ils devaient prendre part à trois visites dans un ordre aléatoire: a) visite NOpause = relaxation/travail mental/repas; b) visite RELpause = travail mental/relaxation/repas; visite PApause = travail mental/activité physique/repas. L’effet de l’introduction d’une pause active sur l’ingestion et le bilan (kilojoules ingérés - kilojoules dépensés lors des différentes tâches) énergétiques a été étudié en comparant les visites par analyse par test-t pour échantillons appariés avec un seuil de significativité fixé à 0,05. Résultats: L’introduction d’une pause passive entre le travail mental et le repas ne modifie en rien l’ingestion et le bilan énergétiques. L’introduction de la pause active n’augmente pas la consommation alimentaire, et ce, malgré une augmentation significative des sensations associées à l’appétit (envie de manger, faim, sensation d’être rempli et consommation anticipée d’aliments). Considérant la dépense énergétique inhérente à la pratique d’activité physique, un bilan énergétique significativement inférieur de plus de 1000 kJ a été mesuré pour la visite avec pause active par rapport à la visite sans pause. Conclusion : Cette étude est la première à confirmer que de bouger entre un travail mental et un repas est une stratégie efficace pour contrer l’effet hyperphagiant du travail mental via son action sur la dépense énergétique augmentée et un maintien de l’ingestion calorique. Globalement, ces résultats pourraient aider au maintien et à l'amélioration d'un statut corporel sain dans un contexte où le travail mental est omniprésent.