13 resultados para Lancer du poids -- Belgique -- Anvers (Belgique)
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
Le but de cette étude est de comparer certains paramètres anthropométriques (le poids, l'indice de masse corporelle, le pli adipeux du triceps, la somme des plis cutanés) et physiologiques (la performance en minutes au test Léger navette, la pression systolique et diastolique). L'expérimentation d'une durée de trois semaines se réalise à l'école La Maisonnée, située à Rock Forest et regroupe 80 sujets âgés de 7 à 11 ans qui sont divisés en deux groupes. Le groupe contrôle de 40 sujets ayant une pression artérielle normale (< 90e percentile selon l'âge et le sexe) et le groupe expérimental est composé de 40 sujets ayant une pression artérielle élevée (> 90e percentile selon l'âge et le sexe). Les résultats démontrent des différences significatives entre le groupe contrôle et le groupe expérimental au niveau de la pression systolique et diastolique, du poids, de l'indice de masse corporelle, du pli adipeux du triceps, de la somme des plis cutanés et de la performance en minutes au test Léger navette. De plus, cette étude révèle qu'il y a beaucoup plus d'enfants du deuxième cycle que du premier cycle du primaire qui ont une pression artérielle élevée. En sachant maintenant que l'hypertension est un facteur de risque important de la maladie coronarienne et qu'elle est souvent une conséquence de l'obésité, des mesures devraient être entreprises afin de prévenir ce problème chez l'enfant. En terminant, un programme d'activité physique pourrait être implanté dans les écoles pour diminuer ce problème qui prend de plus en plus d'ampleur à chaque année.
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.
Resumo:
La présente étude a comme objectif d'évaluer l'impact du stage pratique comme situation d'apprentissage dans le développement de l'identité professionnelle. Le cadre conceptuel fait référence à une perspective interactionniste où transige une dialectique entre le sujet et le monde de la socialisation professionnelle: donc, d'une identité négociée en fonction des valeurs du milieu d'éducation et des intérêts de l'individu. Des mesures de ce construit sont prises en compte avant et après la réalisation du stage, puis sont comparées au construit collectif associé aux milieux de stage. Le choix méthodologique s'est porté vers la méthode Q qui s'avère une approche compatible avec l'étude des systèmes de valeurs des individus (Stephenson, 1953). Ainsi, la technique du Q-Sort consiste en une priorisation impliquant un tri d'énoncés de nature qualitative. Le traitement statistique permet ensuite d'examiner l'interrelation d'attitudes individuelles privilégiées par un groupe de répondants. L'échantillon se compose de stagiaires en milieux de garde du collégial (n= ll), de niveau universitaire (n=12) et d'éducatrices (n=81 ) provenant du Québec, de la France, de la Belgique et du Mali. Le Q-sort se compose de 79 énoncés distribués selon une répartition quasi-normale à choix forcés dans sept catégories. L'analyse statistique porte sur les matrices inversées de données afin d'évaluer le degré de rapprochement entre les individus dans la priorisation des valeurs en se basant sur les corrélations et les analyses factorielles. Les résultats mettent en évidence le degré de rapprochement entre les systèmes de valeurs des éducatrices québécoises et ceux des intervenants des autres pays. Quant à l'impact du stage sur les étudiantes, celui-ci se traduit par un éloignement, un rapprochement ou un maintien aux valeurs des éducatrices des milieux de garde. L'étude démontre qu'il s'avère possible d'évaluer l'impact de la formation pratique sur les valeurs liées à l'identité professionnelle tant sur le plan qualitatif que quantitatif.
Resumo:
Ce mémoire s’intéresse à l’endettement des gouvernements et aux facteurs historiques qui en sont les causes. L’analyse utilise des données historiques des cinquante États américains afin d’explorer l’influence de différents facteurs d’ordre économique, politique et institutionnel sur l’accumulation de la dette publique. Alors que la littérature met de l’avant l’impact des facteurs économiques, politiques et institutionnels dans la détermination de l’endettement public, la contrainte budgétaire du gouvernement fait ressortir la relation entre le stock de dette publique courant et les déficits passés. Cette relation est au cœur de la question de recherche abordée par le mémoire : quel est le rôle des facteurs économiques, politiques et institutionnels historiques dans l’accumulation de dette publique? Comment estimer leur poids respectif? Afin de répondre à ces questions, l’analyse empirique intègre des variables explicatives économiques, politiques et institutionnelles ayant une composante historique. De plus, elle accorde une attention particulière aux facteurs institutionnels en utilisant différentes sources de données et des caractérisations plus ou moins détaillées pour modéliser les règles budgétaires et les limites d’endettement. Par ailleurs, la méthodologie empirique tient compte de la question de l’endogénéité potentielle des institutions fiscales. Les résultats de l’analyse économétrique confirment l’importance des facteurs économiques. Dans le cas des variables politiques, ils infirment la théorie selon laquelle les gouvernements divisés s’endettent davantage, mais confirment que l’appartenance politique des gouverneurs a un effet certain sur le poids de la dette publique. Ils indiquent également que l’indice historique d’alternance des partis politiques est important, l’alternance plus fréquente étant associée à une légère diminution de l’endettement. L’instabilité politique n’alimenterait donc pas nécessairement l’endettement public, ce qui suggère qu’il est possible qu’une plus forte compétition électorale puisse avoir un effet positif sur la rigueur budgétaire dans un système à deux partis politiques. De façon générale, les effets estimés des variables institutionnelles impliquent qu’elles ne sont que peu efficaces à limiter l’endettement des États.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Le nombre de jeunes avec un surplus de poids est en hausse au Canada (Roberts, Shields, de Groh, Aziz et Gilbert, 2012). Les conséquences négatives de cette condition sont multiples pour le jeune, actuellement et pour son avenir. La recherche visant à comprendre les raisons de cette augmentation cible, entre autres, les environnements alimentaires dont le paysage scolaire. Des restaurants rapides et des dépanneurs sont dénombrés dans l’environnement alimentaire bâti en milieu scolaire (Lalonde et Robitaille, 2014). La présence et la concentration de commerces alimentaires dans le voisinage des écoles favorisent l’achat d’aliments et de boissons par les jeunes (He, Tucker, Gilliland, Irwin, Larsen, et Hess, 2012a; Robitaille, Paquette, Cutumisu, Lalonde, Cazale, Traoré et Camirand, 2015; Seliske, Pickett, Rosu et Janssen, 2013; Virtanen, Kivimäki, Ervasti, Oksanen, Pentti, Kouvonen, Halonen, Kivimäki, Vahtera, 2015). Pourtant, le lien causal entre le paysage alimentaire scolaire et les achats des jeunes n’est pas soutenu par la littérature scientifique actuelle. À Sherbrooke, un changement dans l’environnement alimentaire bâti est survenu en 2012 suite à l’implantation de commerces alimentaires en périphérie d’une école secondaire. Ce projet était une occasion exceptionnelle de valider si la modification naturelle de la densité alimentaire autour d’une école avait un effet sur les comportements d’achat des jeunes dans cet environnement. L’objectif de ce travail de maîtrise était de mesurer le lien entre les comportements d’achat des jeunes du secondaire dans l’environnement alimentaire bâti en milieu scolaire et la densité de certains commerces alimentaires circonscrite autour de leur école. L’hypothèse émise était que les jeunes dont l’école était entourée d’une densité plus élevée de commerces alimentaires étaient plus nombreux à acheter des aliments et des boissons dans ces commerces que les autres adolescents. Pour ce faire, un questionnaire auto-administré a été rempli en classe par des élèves de trois écoles secondaires sherbrookoises. Les données obtenues ont permis de documenter les comportements d’achat de près de 3 000 jeunes en 2013. Ces comportements d’achat ont été comparés à ceux collectés dans le Portrait des jeunes sherbrookois de 4 à 17 ans en matière d’alimentation et d’activité physique et sportive réalisé en 2008 (n = 3 867) (Morin et al., 2009a). Parallèlement, une cartographie des environnements alimentaires autour de chaque école participante à chaque temps a permis de décrire les densités alimentaires scolaires. Au regard de l’environnement alimentaire bâti en milieu scolaire, peu de liens existent entre la prévalence d’acheteurs le midi et la densité de restaurants rapides autour des écoles, selon nos résultats. Seul l’effet défavorable d’une très forte concentration en restaurants rapides (soit plus d’une douzaine) a émergé de nos résultats. De plus, aucune tendance n’a été décelée entre l’évolution du paysage alimentaire autour des écoles entre les deux temps et les changements dans les prévalences d’acheteurs. Ainsi, les efforts fournis pour diminuer la densité alimentaire en périphérie des écoles doivent être remis en question considérant le faible effet mesuré sur les comportements d’achat des jeunes dans notre étude. En ce qui trait aux comportements d’achat des jeunes, nos résultats ont montré que seule une faible proportion de jeunes était des consommateurs dans les environnements alimentaires scolaires. En effet, moins d’un jeune sur dix a acheté un aliment ou une boisson sur l’heure du midi dans un restaurant rapide dans la semaine sondée. Cette pratique ne semblait donc pas caractériser le régime alimentaire global des jeunes et ainsi, son influence réelle sur la hausse des taux d’obésité est incertaine (Macdiarmid, Wills, Masson, Craig, Bromley et McNeill, 2015). De plus, selon nos résultats, la prévalence des acheteurs au restaurant rapide durant une semaine typique a diminué entre les deux temps. D’un autre côté, la qualité nutritive des achats dans ces commerces durant une semaine s’était améliorée entre les deux temps. Cependant, les choix moins nutritifs étaient toujours achetés par plus de jeunes que les aliments et les boissons nutritifs. Les quantités achetées à chaque visite dans un restaurant rapide étant inconnues dans notre étude, il était difficile de statuer sur l’effet réel des achats sur les prévalences d’obésité. En conclusion, il demeure essentiel d’améliorer les habitudes alimentaires des jeunes, entre autres, dans les restaurants rapides lors d’une journée scolaire (Macdiarmid et al., 2015). Par conséquent, l’offre alimentaire dans l’environnement alimentaire bâti en milieu scolaire doit être bonifiée, par exemple en collaborant avec les commerçants alimentaires déjà établis. Il faut également maintenir les efforts déployés pour améliorer l’environnement alimentaire dans l’école et élaborer des stratégies pour que les jeunes mangent à la cafétéria de l’école.
Resumo:
En observant, en étudiant, en décrivant un processus de formation dans sa dimension écoformative, hétéroformative et autoformative lors d'une expérience d'insertion professionnelle, il devient possible de déterminer lequel de ces trois pôles de formation apporte la contribution la plus grande à cette expérience. Aussi, cela permet de découvrir comment la connaissance du processus tripolaire de formation peur influencer, améliorer, faciliter la période de l'insertion professionnelle. L'objectif général de la recherche est de comprendre le processus tripolaire de formation lors d'une expérience d'insertion professionnelle et ce, en décrivant la contribution à la formation de chacun des pôles de la théorie tripolaire de formation et en évaluant le poids de chacun de ces pôles lors de l'expérience d'insertion professionnelle. L'expérience d'insertion professionnelle étudiée est celle du passage de la fonction d'enseignante du primaire à celle de conseillère au développement vécue par l'auteur de cet essai. Cette étude s'est réalisée dans le cadre d'une recherche de développement profesionnel dont le but visé est une plus grande compréhension de l'objet de la recherche soit le processus tripolaire de formation lors de l'expérience d'insertion professionnelle. Pour ce faire, le discours utilisé est herméneutique.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Résumé: Le surpoids et l’obésité dans la population pédiatrique sont des préoccupations grandissantes à l’échelle mondiale. Actuellement, au Canada, près de 21 % des jeunes Canadiens âgés de 2 à 5 ans présentent un surpoids et malheureusement, 6 % d’entre eux souffrent d’obésité. De plus, 80 % de ces enfants risquent d’être obèses à l’âge adulte, ce qui mène à plusieurs impacts sur la santé. Afin de prévenir l’obésité infantile, il est important d’identifier des facteurs de risques, notamment ceux se produisant tôt dans la vie. Plusieurs études ont démontré l’importance de l’environnement fœtal dans l’établissement de la santé métabolique à long terme. Le poids à la naissance a souvent été utilisé comme marqueur de l’exposition prénatale. Cependant, le poids à la naissance n’est qu’un marqueur grossier. L’adiposité à la naissance a été identifiée comme un facteur de risque plus important puisqu’elle permet de prédire de l’adiposité durant l’enfance. Les deux déterminants maternels majeurs de la croissance fœtale sont le statut pondéral et la glycémie maternelle. Récemment, une adipokine a été suggérée comme un déterminant potentiel dans la programmation fœtale de l’obésité. La leptine, qui est produite par les adipocytes, joue un rôle important dans la balance énergétique, mais elle semble aussi importante dans le développement de l’obésité postnatale. Durant la grossesse, le placenta produit une large quantité de leptine et la majorité est sécrétée du côté maternel. Appuyés par le fait que la leptine maternelle circulante est le reflet de la sécrétion placentaire de leptine, nous avons émis l’hypothèse que la leptine maternelle serait associée à l’adiposité du nouveau-né, et ce, indépendamment de la glycémie maternelle. Nous avons étudié la leptine durant l’hyperglycémie provoquée par voie orale (HGPO) chez les femmes enceintes au 2e trimestre. Nous avons montré, chez les femmes en surpoids ou obèse, qu’une plus haute leptine maternelle était lié à une adiposité néonatale augmentée à la naissance. D’un autre côté, chez les femmes minces, une glycémie élevée était liée à une adiposité néonatale augmentée. Ces associations sont indépendantes de la parité, du statut tabagique, du gain de poids durant la grossesse, des triglycérides maternels, du mode d’accouchement, du sexe du nouveau-né et de l’âge gestationnel à la naissance. Ces résultats suggèrent une régulation différentielle entre ces deux marqueurs métaboliques maternels et l’adiposité néonatale, selon le statut pondéral pré-grossesse.
Resumo:
Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.
Resumo:
Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.