986 resultados para Diète riche en lipides
Resumo:
Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.
Resumo:
réalisé en cotutelle avec l'Université Claude Bernard Lyon 1
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
La chaîne invariante (Ii ; CD74) est une protéine membranaire de type II qui joue un rôle majeur dans la présentation antigénique. Dans le réticulum endoplasmique (RE), Ii favorise l’assemblage du CMH II et prévient la liaison indésirable de polypeptides. Grâce à son motif di-leucine, la chaîne invariante cible le CMH II dans les endosomes. Une fois dans ces compartiments acides, Ii est dégradé, permettant la liaison de peptides de forte affinité qui seront ensuite présentés aux cellules T CD4+. Chez les souris déficientes en Ii murin (mIi), le CMH II présente une conformation non compacte typique des molécules vides ou liées faiblement à un peptide. Le transport du CMH II est aberrant ce qui conduit à une réduction de son expression en surface ainsi qu’à un défaut de présentation antigénique. De plus, Ii diversifie le répertoire de peptides et assure la sélection thymique des cellules T CD4+. Enfin, il a un rôle dans la maturation des cellules B et les souris déficientes en Ii présentent des nombres réduits de cellules B matures folliculaires (FO). L’isoforme mineure humaine p35 (Iip35) n’existe pas chez la souris et possède une extension cytoplasmique de 16 acides aminés contenant un motif R-x-R de rétention dans le RE. La sortie du RE est conditionnelle à la liaison du CMH II qui permet de masquer le motif de rétention. Iip35 agit comme dominant et impose la rétention aux autres isoformes d’Ii. Cependant, le rôle physiologique du motif R-x-R et, plus globalement, celui d’Iip35, demeurent nébuleux. Pour mieux cerner la fonction d’Iip35, nous avons généré des souris transgéniques (Tg) exprimant l’isoforme humaine Iip35 et avons analysé la conformation et le trafic du CMH II, la sélection thymique et la maturation des cellules B ainsi que la présentation antigénique. Nos résultats ont démontré qu’Iip35 favorise l’assemblage du CMH II dans le RE. Il induit également une conformation compacte du CMH II et augmente l’expression du CMH II en surface. De plus, Iip35 cible le CMH II dans les endosomes où un peptide de forte affinité se lie dans la niche peptidique. Par ailleurs, Iip35 diversifie le répertoire de peptides et rétablit totalement la sélection des cellules T CD4+ ainsi que le niveau d’expression du TCR de ces dernières. Iip35 restaure également la présentation antigénique de l’ovalbumine dont la présentation requiert l’expression d’Ii. Par contre, Iip35 rétablit la présentation des superantigènes mais à un niveau moindre que celui des souris sauvages. Ensuite, Iip35 permet le rétablissement de la sélection des cellules iNKT démontrant qu’il assiste la présentation des lipides par les molécules CD1d. Enfin, les résultats ont démontré qu’Iip35 restaure le développement des cellules B matures folliculaires (FO) mais pas celui des cellules B de la zone marginale. Ceci suggère qu’Iip35 est capable d’induire le développement des cellules FO sans stimulation préalable par le MIF (macrophage migration inhibitory factor). Ainsi, l’ensemble de ces résultats démontre qu’Iip35 est fonctionnel et assure la majorité des fonctions d’Ii. Cependant, Iip35 ne remplace pas mIi endogène concernant la maturation des cellules B MZ suggérant qu’il pourrait avoir un rôle de régulateur.
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Cette étude s’insère dans une étude s’intitulant « Choix alimentaires d’adolescents canadiens et attitudes de leurs entraîneurs impliqués dans des activités sportives organisées ». Les objectifs étaient d’étudier chez des adolescents impliqués dans une compétition sportive provinciale où l’offre alimentaire est contrôlée 1) leur maîtrise des recommandations nutritionnelles 2) les facteurs individuels, comportementaux, socio-environnementaux influençant leurs choix alimentaires. Deux observateurs ont visité les différents sites alimentaires et de compétition pendant les Jeux du Québec de 2011 à Valleyfield. Les plateaux des athlètes ont été photographiés à table au moment des repas avec une caméra numérique et les commentaires oraux colligés par écrit. Au total, 173 photographies ont été analysées et comparées aux recommandations reconnues en nutrition sportive. Dans notre étude, les préférences alimentaires, l’offre alimentaire et la présence des coéquipiers sont les facteurs qui influencent le plus les choix alimentaires en compétition. Par contre, le sexe de l’athlète n’a pas influencé les choix alimentaires des athlètes observés. En pré-compétition, 85,4% des plateaux présentent une valeur énergétique supérieure aux recommandations et 66,3% d’entre eux ont une répartition en énergie inadéquate, peu importe le sexe. Un excès de lipides et de protéines au sein du repas précédant l’effort caractérise majoritairement les plateaux dont la répartition en énergie est non optimale (69,5%). Les recommandations en post-compétition (100%) et lors des jours de repos (95,8%) ont facilement été rencontrées. Il en est de même pour l’hydratation (99,4%). Le lait au chocolat est la boisson la plus populaire (59,5%). Les produits céréaliers (99,4%), le lait et substituts (87,3%), les légumes (85,7%), les viandes et substituts (83,2%), les aliments riches en sucres (79,8%), les fruits (70,5%) et les mets riches en gras (59,4%) sont particulièrement appréciés par les athlètes. Les commentaires recueillis font ressortir une vision dichotomique des aliments chez certains athlètes qui classifient les aliments en « bons » ou « mauvais ». Notre étude démontre que la présence d’une politique alimentaire permet de promouvoir des habitudes alimentaires saines et favorise la consommation d’aliments nutritifs lors d’une compétition sportive d’envergure. Cependant, de l’éducation en nutrition est toujours requise pour viser l’amélioration du comportement alimentaire avant l’effort.
Resumo:
L'élastographie ultrasonore est une technique d'imagerie émergente destinée à cartographier les paramètres mécaniques des tissus biologiques, permettant ainsi d’obtenir des informations diagnostiques additionnelles pertinentes. La méthode peut ainsi être perçue comme une extension quantitative et objective de l'examen palpatoire. Diverses techniques élastographiques ont ainsi été proposées pour l'étude d'organes tels que le foie, le sein et la prostate et. L'ensemble des méthodes proposées ont en commun une succession de trois étapes bien définies: l'excitation mécanique (statique ou dynamique) de l'organe, la mesure des déplacements induits (réponse au stimulus), puis enfin, l'étape dite d'inversion, qui permet la quantification des paramètres mécaniques, via un modèle théorique préétabli. Parallèlement à la diversification des champs d'applications accessibles à l'élastographie, de nombreux efforts sont faits afin d'améliorer la précision ainsi que la robustesse des méthodes dites d'inversion. Cette thèse regroupe un ensemble de travaux théoriques et expérimentaux destinés à la validation de nouvelles méthodes d'inversion dédiées à l'étude de milieux mécaniquement inhomogènes. Ainsi, dans le contexte du diagnostic du cancer du sein, une tumeur peut être perçue comme une hétérogénéité mécanique confinée, ou inclusion, affectant la propagation d'ondes de cisaillement (stimulus dynamique). Le premier objectif de cette thèse consiste à formuler un modèle théorique capable de prédire l'interaction des ondes de cisaillement induites avec une tumeur, dont la géométrie est modélisée par une ellipse. Après validation du modèle proposé, un problème inverse est formulé permettant la quantification des paramètres viscoélastiques de l'inclusion elliptique. Dans la continuité de cet objectif, l'approche a été étendue au cas d'une hétérogénéité mécanique tridimensionnelle et sphérique avec, comme objectifs additionnels, l'applicabilité aux mesures ultrasonores par force de radiation, mais aussi à l'estimation du comportement rhéologique de l'inclusion (i.e., la variation des paramètres mécaniques avec la fréquence d'excitation). Enfin, dans le cadre de l'étude des propriétés mécaniques du sang lors de la coagulation, une approche spécifique découlant de précédents travaux réalisés au sein de notre laboratoire est proposée. Celle-ci consiste à estimer la viscoélasticité du caillot sanguin via le phénomène de résonance mécanique, ici induit par force de radiation ultrasonore. La méthode, dénommée ARFIRE (''Acoustic Radiation Force Induced Resonance Elastography'') est appliquée à l'étude de la coagulation de sang humain complet chez des sujets sains et sa reproductibilité est évaluée.
Resumo:
Thèse réalisée en cotutelle avec l'université de Franche-Comté, école doctorale Langage, espace, temps et société.
Resumo:
La fonction des canaux ioniques est finement régulée par des changements structuraux de sites clés contrôlant l’ouverture du pore. Ces modulations structurales découlent de l’interaction du canal avec l’environnement local, puisque certains domaines peuvent être suffisamment sensibles à des propriétés physico-chimiques spécifiques. Les mouvements engendrés dans la structure sont notamment perceptibles fonctionnellement lorsque le canal ouvre un passage à certains ions, générant ainsi un courant ionique mesurable selon le potentiel électrochimique. Une description détaillée de ces relations structure-fonction est cependant difficile à obtenir à partir de mesures sur des ensembles de canaux identiques, puisque les fluctuations et les distributions de différentes propriétés individuelles demeurent cachées dans une moyenne. Pour distinguer ces propriétés, des mesures à l’échelle de la molécule unique sont nécessaires. Le but principal de la présente thèse est d’étudier la structure et les mécanismes moléculaires de canaux ioniques par mesures de spectroscopie de fluorescence à l’échelle de la molécule unique. Les études sont particulièrement dirigées vers le développement de nouvelles méthodes ou leur amélioration. Une classe de toxine formeuse de pores a servi de premier modèle d’étude. La fluorescence à l’échelle de la molécule unique a aussi été utilisée pour l’étude d’un récepteur glutamate, d’un récepteur à la glycine et d’un canal potassique procaryote. Le premier volet porte sur l’étude de la stœchiométrie par mesures de photoblanchiment en temps résolu. Cette méthode permet de déterminer directement le nombre de monomères fluorescents dans un complexe isolé par le décompte des sauts discrets de fluorescence suivant les événements de photoblanchiment. Nous présentons ici la première description, à notre connaissance, de l’assemblage dynamique d’une protéine membranaire dans un environnement lipidique. La toxine monomérique purifiée Cry1Aa s’assemble à d’autres monomères selon la concentration et sature en conformation tétramérique. Un programme automatique est ensuite développé pour déterminer la stœchiométrie de protéines membranaires fusionnées à GFP et exprimées à la surface de cellules mammifères. Bien que ce système d’expression soit approprié pour l’étude de protéines d’origine mammifère, le bruit de fluorescence y est particulièrement important et augmente significativement le risque d’erreur dans le décompte manuel des monomères fluorescents. La méthode présentée permet une analyse rapide et automatique basée sur des critères fixes. L’algorithme chargé d’effectuer le décompte des monomères fluorescents a été optimisé à partir de simulations et ajuste ses paramètres de détection automatiquement selon la trace de fluorescence. La composition de deux canaux ioniques a été vérifiée avec succès par ce programme. Finalement, la fluorescence à l’échelle de la molécule unique est mesurée conjointement au courant ionique de canaux potassiques KcsA avec un système de fluorométrie en voltage imposé. Ces enregistrements combinés permettent de décrire la fonction de canaux ioniques simultanément à leur position et densité alors qu’ils diffusent dans une membrane lipidique dont la composition est choisie. Nous avons observé le regroupement de canaux KcsA pour différentes compositions lipidiques. Ce regroupement ne paraît pas être causé par des interactions protéine-protéine, mais plutôt par des microdomaines induits par la forme des canaux reconstitués dans la membrane. Il semble que des canaux regroupés puissent ensuite devenir couplés, se traduisant en ouvertures et fermetures simultanées où les niveaux de conductance sont un multiple de la conductance « normale » d’un canal isolé. De plus, contrairement à ce qui est actuellement suggéré, KcsA ne requiert pas de phospholipide chargé négativement pour sa fonction. Plusieurs mesures indiquent plutôt que des lipides de forme conique dans la phase cristalline liquide sont suffisants pour permettre l’ouverture de canaux KcsA isolés. Des canaux regroupés peuvent quant à eux surmonter la barrière d’énergie pour s’ouvrir de manière coopérative dans des lipides non chargés de forme cylindrique.
Resumo:
Alors que la prévalence de l’obésité est un problème d’ampleur mondiale, les avenues permettant de mieux utiliser l’exercice (Ex) s’avèrent d’un grand intérêt. L’Ex peut réduire l'appétit et l'apport énergétique, soit l’effet anorexigène de l'Ex. Des études récentes de notre laboratoire ont montré l’importance du moment de la pratique d’Ex, pour diminuer l’apport énergétique. Cependant, aucune ne certifie que le positionnement dans le temps de l'Ex maximise la réduction de masse corporelle en contexte naturel. Le devis croisé de l’étude visait donc à déterminer s’il existe un positionnement idéal de l’Ex, afin de potentialiser la perte de poids corporel et d'adiposité, en comparant l'effet de deux programmes sur l’anthropométrie d’adultes en surpoids. Huit adultes montréalais volontaires (18-45 ans) en surpoids ou obèses ont complété l’étude. Aléatoirement, ils ont effectué deux programmes d'Ex (2 x 15 min. d’Ex par intervalles quotidiennement) de quatre semaines : 1) Ex avant les repas (ExMeal) vs 2) Ex à tout moment, sauf dans l'heure précédent les repas (MealEx). Les consultations hebdomadaires à l'Université de Montréal comprenaient : les mesures anthropométriques, les questionnaires standardisés sur la pratique d’activités physiques et l’alimentation, ainsi que le suivi des entrainements faits en milieu naturel. Les analyses Mann- Whitney U ont révélé des résultats similaires concernant le profil anthropométrique, la pratique d’Ex à l’intérieur et hors du programme et l’ingestion calorique (contenu calorique et % de l’énergie des glucides, protéines et lipides), entre les programmes ExMeal et MealEx (p > 0.05). Cependant, le programme ExMeal a été associé à une ingestion calorique sous forme de protéines de 2,8% plus importante (p= 0.05). D’autres analyses exploratoires, ont fait ressortir que c’est surtout la séquence mensuelle des évènements qui était liée à une réduction du pourcentage de gras et à une assiduité plus importante aux Ex structurés lors du premier mois. Par ailleurs, même si plusieurs études ont vérifié et confirmé l’effet anorexigène de l’Ex aigu dans certaines conditions, il semble que l’effet à plus long terme sur le profil anthropométrique ne soit pas démontré avec cette étude pilote. Enfin, des facteurs comme le statut d’adiposité, la structure du programme, la durée des séances d’Ex et la pratique en milieu naturel peuvent avoir rendu plus difficile l’amélioration du profil anthropométrique. Mots-clés : Exercice, positionnement, ingestion calorique, perte de poids, adultes, obésité.
Resumo:
Context and objectives. While 11% of all drivers are aged between 16 and 24, they represent 20% of all fatally injured drivers on the road network of the Province of Quebec. In collaboration with the Sûreté du Québec (SQ), this study seeks to: (1) offer a detailed description of the process (script) leading to fatal collisions involving young drivers; and (2) to recommend prevention measures. Methodology. The script perspective was used to relate the process leading to a fatal collision. The script perspective accounts for all steps that lead to the collision by focusing on: (1) all parties (the driver, friends, parents) and their actions; (2) contexts; and (3) environments. Data were collected from collision and investigation files (n=179). Descriptive and comparative analyses were then conducted to construct the script(s). Results. Results show that fatal collision scripts for 16-29 are different from scripts involving drivers of other age categories (30-59 year-old and 60 year-old and over). The typical script involves a young driver using his car to take part in leisure or festive activities. The latest often occur in a private residence, a bar or a restaurant. On site, young drivers frequently consume psychoactive substances (between 21 and 63.5% of them according to the scene of the script) and are accompanied by friends (between 18.4 and 73.9% according to the scene of the script). Friends often encourage drivers to have alcohol and/or drugs, and to adopt reckless behaviours (speeding and drinking-and-driving are respectively involved in 29.9 and 28.6% of fatal collisions). Conclusion and implications for prevention. Results suggest that fatal collisions involving young drivers could be avoided by encouraging prevention measures aimed at: (1) separating drinking and driving; (2) limiting access to alcohol and peer pressure; (3) raising awareness among potential guardians (e.g. responsible waiters, friends); and (4) increasing arrest risk.
Resumo:
Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.