765 resultados para Taille corporelle
Resumo:
Au milieu du XIIe siècle, l’Occident chrétien assiste à l’apparition d’un nouveau rituel liturgique au cours duquel le prêtre élève au-dessus de sa tête l’hostie qui vient d’être consacrée et transformée en corps du Christ. Selon l’historiographie, ce que l’on nomme « élévation de l’hostie » doit permettre aux fidèles de voir et d’adorer l’objet pour pallier la diminution progressive de la fréquence des communions depuis la Réforme grégorienne dans le dernier quart du XIe siècle. Or, cette thèse apparait problématique dans la mesure où les textes liturgiques ainsi que les conciles synodaux ordonnent aux fidèles de s’incliner, de s’agenouiller, de baisser les yeux et même de se prosterner. De plus, une multitude d’obstacles physiques comme des jubés, des clôtures, des rideaux ou un certain nombre de clercs ne peut que limiter la visibilité de l’objet. Ensuite, du point de vue théologique, on ne cesse de rappeler qu’il est impossible de voir Dieu par les yeux du corps et que la visio dei, qui relève des yeux spirituels, ne peut se réaliser en cette vie. Une foi réelle doit d’ailleurs se passer de la vision, de la science ou de la connaissance, car comme le disent les Écritures, « heureux ceux qui ont cru sans voir ». Il en résulte une certaine ambivalence, voire parfois une dévalorisation de la vision corporelle. Sens le plus spirituel, il est aussi le plus dangereux lorsque mal utilisé. La présente recherche porte sur l’apparition, l’évolution et la fixation du rituel de l’élévation de l’hostie du milieu du XIIe siècle à la fin du XIVe siècle et tente de démontrer que sa fonction n’est pas de montrer l’hostie aux fidèles qui sont largement découragés, par une multitude de moyens, de la regarder et qu’elle possède une fonction sociale et liturgique indépendante de leur regard.
Resumo:
Les zéolithes étant des matériaux cristallins microporeux ont démontré leurs potentiels et leur polyvalence dans un nombre très important d’applications. Les propriétés uniques des zéolithes ont poussé les chercheurs à leur trouver constamment de nouvelles utilités pour tirer le meilleur parti de ces matériaux extraordinaires. Modifier les caractéristiques des zéolithes classiques ou les combiner en synergie avec d’autres matériaux se trouvent être deux approches viables pour trouver encore de nouvelles applications. Dans ce travail de doctorat, ces deux approches ont été utilisées séparément, premièrement avec la modification morphologique de la ZSM-12 et deuxièmement lors de la formation des matériaux de type coeur/coquille (silice mésoporeuses@silicalite-1). La ZSM-12 est une zéolithe à haute teneur en silice qui a récemment attiré beaucoup l’attention par ses performances supérieures dans les domaines de l’adsorption et de la catalyse. Afin de synthétiser la ZSM-12 avec une pureté élevée et une morphologie contrôlée, la cristallisation de la zéolithe ZSM-12 a été étudiée en détail en fonction des différents réactifs chimiques disponibles (agent directeur de structure, types de silicium et source d’aluminium) et des paramètres réactionnels (l’alcalinité, ratio entre Na, Al et eau). Les résultats présentés dans cette étude ont montré que, contrairement à l’utilisation du structurant organique TEAOH, en utilisant un autre structurant, le MTEAOH, ainsi que le Al(o-i-Pr)3, cela a permis la formation de monocristaux ZSM-12 monodisperses dans un temps plus court. L’alcalinité et la teneur en Na jouent également des rôles déterminants lors de ces synthèses. Les structures de types coeur/coquille avec une zéolithe polycristalline silicalite-1 en tant que coquille, entourant un coeur formé par une microsphère de silice mésoporeuse (tailles de particules de 1,5, 3 et 20-45 μm) ont été synthétisés soit sous forme pure ou chargée avec des espèces hôtes métalliques. Des techniques de nucléations de la zéolithe sur le noyau ont été utilisées pour faire croitre la coquille de façon fiable et arriver à former ces matériaux. C’est la qualité des produits finaux en termes de connectivité des réseaux poreux et d’intégrité de la coquille, qui permet d’obtenir une stéréosélectivité. Ceci a été étudié en faisant varier les paramètres de synthèse, par exemple, lors de prétraitements qui comprennent ; la modification de surface, la nucléation, la calcination et le nombre d’étapes secondaires de cristallisation hydrothermale. En fonction de la taille du noyau mésoporeux et des espèces hôtes incorporées, l’efficacité de la nucléation se révèle être influencée par la technique de modification de surface choisie. En effet, les microsphères de silice mésoporeuses contenant des espèces métalliques nécessitent un traitement supplémentaire de fonctionnalisation chimique sur leur surface externe avec des précurseurs tels que le (3-aminopropyl) triéthoxysilane (APTES), plutôt que d’utiliser une modification de surface avec des polymères ioniques. Nous avons également montré que, selon la taille du noyau, de deux à quatre traitements hydrothermaux rapides sont nécessaires pour envelopper totalement le noyau sans aucune agrégation et sans dissoudre le noyau. De tels matériaux avec une enveloppe de tamis moléculaire cristallin peuvent être utilisés dans une grande variété d’applications, en particulier pour de l’adsorption et de la catalyse stéréo-sélective. Ce type de matériaux a été étudié lors d’une série d’expériences sur l’adsorption sélective du glycérol provenant de biodiesel brut avec des compositions différentes et à des températures différentes. Les résultats obtenus ont été comparés à ceux utilisant des adsorbants classiques comme par exemple du gel de sphères de silice mésoporeux, des zéolithes classiques, silicalite-1, Si-BEA et ZSM-5(H+), sous forment de cristaux, ainsi que le mélange physique de ces matériaux références, à savoir un mélange silicalite-1 et le gel de silice sphères. Bien que le gel de sphères de silice mésoporeux ait montré une capacité d’adsorption de glycérol un peu plus élevée, l’étude a révélé que les adsorbants mésoporeux ont tendance à piéger une quantité importante de molécules plus volumineuses, telles que les « fatty acid methyl ester » (FAME), dans leur vaste réseau de pores. Cependant, dans l’adsorbant à porosité hiérarchisée, la fine couche de zéolite silicalite-1 microporeuse joue un rôle de membrane empêchant la diffusion des molécules de FAME dans les mésopores composant le noyau/coeur de l’adsorbant composite, tandis que le volume des mésopores du noyau permet l’adsorption du glycérol sous forme de multicouches. Finalement, cette caractéristique du matériau coeur/coquille a sensiblement amélioré les performances en termes de rendement de purification et de capacité d’adsorption, par rapport à d’autres adsorbants classiques, y compris le gel de silice mésoporeuse et les zéolithes.
Resumo:
L’objectif du vaste projet de recherche dans lequel s’inscrit ce mémoire est de guérir le diabète de type 1 en fabriquant un pancréas bioartificiel vascularisé contenant des cellules bêta (i.e. les cellules sécrétant l’insuline). Ce dispositif permettrait de rendre aux personnes atteintes par le diabète de type 1 la capacité de sécréter par elles-mêmes de l’insuline et de réguler leur glycémie. La vascularisation est actuellement un enjeu de taille dans le domaine du génie tissulaire. La plupart des tissus incorporant des cellules générées par le génie tissulaire sont actuellement fortement limités en épaisseur faute d’être vascularisés adéquatement. Pour les tissus dont l’épaisseur dépasse 400 μm, la vascularisation est nécessaire à la survie de la plupart des cellules qui autrement souffriraient d’hypoxie, les empêchant ainsi d’accomplir leurs fonctions [1]. Ce mémoire présente le développement et la mise en service d’un dispositif d’extrusion tridimensionnelle de sucre vitrifié pour la vascularisation d’un pancréas bioartificiel. Ce dispositif a été développé au laboratoire de recherche sur les procédés d’impression 3D ainsi qu’au bureau de design du département de génie mécanique de l’Université Laval. Grâce à cette technique d’impression 3D novatrice et à la caractérisation du procédé, il est maintenant possible de produire rapidement et avec précision des structures temporaires en sucre vitrifié pour la fabrication de réseaux vasculaires tridimensionnels complexes. Les structures temporaires peuvent, après leur production, être utilisées pour réaliser le moulage rapide de constructions vascularisées avec des matériaux tels que du polydiméthylsiloxane (PDMS) ou des hydrogels chargés de cellules biologiques. De par la nature du matériel utilisé, les moules temporaires peuvent être facilement et rapidement dissous dans une solution aqueuse et laisser place à un réseau de canaux creux sans créer de rejets toxiques, ce qui représente un avantage majeur dans un contexte de bio-ingénierie.
Resumo:
Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.
Resumo:
Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
Depuis environ 40 ans, l’intensification des pratiques agricoles a grandement transformé le paysage agricole et ce tant, dans les Amériques qu’en Europe. Quoique, plusieurs espèces animales soient affectées négativement par ces changements, certaines espèces en bénéficient. C’est le cas de la Grande Oie des neiges (Chen caerulescens atlantica) qui a vu sa population croître de façon importante et ce, au point de devenir problématique. De fait, la Grande Oie des neiges cause des dommages importants aux cultures du Québec (1 646 229 ± 800 000 par an entre 2009 et 2015) et aux écosystèmes qu’elle utilise lorsqu’elle fait halte dans la vallée du Saint-Laurent, Québec, Canada. Bien que plusieurs actions aient été tentées pour contrôler sa population le problème persiste. La quête alimentaire des animaux est entre autres modulée par les comportements anti-prédateurs, tels que le temps passé en vigilance et une utilisation différentielle des habitats. Ces comportements sont à leur tour affectés par le risque de prédation et la vie en groupe. En effet, le risque de prédation perçu par un individu dépend entre autres (1) de la taille du groupe auquel il appartient ; (2) de la densité et de l’activité des proies et des prédateurs dans l’environnement ; (3) de son niveau de connaissance de l’environnement ; et (4) des caractéristiques du paysage qu’il occupe. Il s’ensuit que le risque de prédation varie dans l’espace et dans le temps. La représentation cartographique de ce risque à un moment donné consiste en un paysage de la peur, où chaque location ou chaque élément d’un paysage se voit associé un risque de prédation. On s’attend donc à ce que la quête alimentaire des individus, tant dans leur utilisation des habitats que dans leur budget d’activité, soit affectée par la structure du paysage de la peur. Par conséquent, on peut se demander si le paysage de la peur peut être utilisé comme outil de gestion d’une espèce, notamment pour la Grande Oie des neiges. Mon objectif est de quantifier comment la perception du risque de prédation par la Grande Oie des neiges varie en fonction de différents éléments des paysages agricoles visités par les oies, mais aussi de quantifier cette variation selon différentes contraintes énergétiques et temporelles durant leurs haltes migratoires. Ceci afin de voir si le paysage de la peur pourrait être utiliser comme outil de gestion. À ce titre, je vise à mesurer l’effet du type de cultures, de la nature de l’élément paysager, de la distance de celui-ci et du niveau de compétition intraspécifique au sein des sites d’alimentation et ce, durant les deux migrations, sur l’utilisation des habitats et le budget d’activité des oies. Je pose que les oies prendront plus de risques si les contraintes temporelles sont fortes, de même que si elles se nourrissent dans une parcelle alimentaire de haute qualité et si elles subissent une plus forte de compétition. Pour ce faire, j’ai parcouru les Basses-Terres-du-Saint-Laurent de Salaberry-de-Valleyfield jusqu’à l’Islet lors des printemps 2014 et 2015 et de l’automne 2014. J’ai ainsi repéré et observé 141 groupes d’oies exploitant des terres agricoles pour lesquels j’ai noté la position des individus dans les champs et mesuré leur taux de vigilance, de même que noté divers facteurs qui pourraient affecter ces deux comportements, dont le type de cultures exploitées et le fait d’être ou non au sein d’une zone où la chasse est permise. Au printemps, le taux de vigilance des oies était, plus élevé dans les cultures de maïs, plus bas si la densité locale d’oies augmentait et plus bas dans les sanctuaires (i.e., en absence de chasse). Alors qu’à l’automne, le taux de vigilance était, plus élevé à proximité d’une route ou d’un fossé et plus élevé en bordure du groupe. Au printemps, la distance aux éléments du paysage potentiellement dangereux était, plus grande face à une bordure de forêt et plus faible face à la route. La distance était plus petite dans les cultures de maïs, plus élevée dans le foin et plus faible dans les sanctuaires. À l’automne, les effets des différents éléments étaient semblables à ceux du printemps. La distance était plus grande si la taille du groupe augmentait et plus petite dans les sanctuaires. De plus, les oies semblaient montrer un évitement des bordures forestières alors que les autres éléments du paysage étudiés ne semblent pas être sélectionnés ou évités. Les oies subissent des contraintes différentes au printemps et à l’automne. Ces contraintes semblent moduler la prise en compte du risque de prédation entre les saisons. En effet, les oies semblent privilégier l’alimentation au détriment de la prise de risques au printemps, une décision probablement liée à la reproduction dont le succès dépend d’une arrivée relativement hâtive sur les aires de nidification arctiques et donc, des réserves énergétiques accumulées sur les haltes migratoires. En opposition, les oies semblent prendre davantage conscience du risque de prédation dans leur quête alimentaire à l’automne, ce qui pourrait être lié au fait qu’elles sont accompagnées de leurs jeunes et à une contrainte énergétique et temporelle plus faible qu’au printemps. En bref, les oies semblent subir les effets de la peur reliée à la chasse. Mes résultats semblent indiquer que le paysage de la peur pourrait être utilisé dans les stratégies de gestion. Par exemple, en instaurant des haies brise-vent dans les secteurs où le risque de dommages agricoles est élevé, le risque de prédation perçu par les oies y serait plus élevé et pourrait ainsi diminuer l’utilisation de ces secteurs.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Résumé : Contexte: Les maladies cardiovasculaires (MCV) sont un enjeu contemporain de santé publique. Or, des recherches cliniques démontrent que certaines interventions sont efficaces dans leur traitement et prévention. Il s’agit d’interventions nutritionnelles éducatives priorisant des aliments végétaux minimalement transformés (VMT). Ces interventions promeuvent l’adoption de postures alimentaires se caractérisant par la consommation à volonté d’une grande variété d’aliments d’origine végétale (e.g. légumineuses, céréales entières, fruits, légumes) et par une diminution de la consommation d’aliments d’origine animale (e.g. viandes, œufs et produits laitiers) et ultra-transformés (e.g. riches en sucres, sel ou gras, et faibles en fibres). Objectifs: À l’aide d’un devis mixte concomitant imbriqué, nous avons évalué les effets d’un programme d’interventions éducatives visant à augmenter la consommation de VMT chez des adultes à risque de MCV et exploré les déterminants des modifications comportementales observées. Méthodologie : Divers paramètres physiologiques et anthropométriques ont été mesurés pré-post programme (n = 72) puis analysés avec un test t pour échantillons appariés ou un test signé des rangs de Wilcoxon. D’autre part, 10 entretiens semi-dirigés ont été réalisés post-programme et soutenus par un guide d’entretien basé sur le Food Choice Process Model. Les verbatims intégraux ont été codés selon la méthode d’analyse thématique. Résultats : Après 12 semaines, le poids (-10,5 lb, IC 95 %: 9,0-12,0), le tour de taille (-7,4 cm, IC 95 %:6,5-8,4), la tension artérielle diastolique (-3,2 mmHg, IC 95 %: 0,1-6,3), le cholestérol total (-0,87 mmol/ L, IC 95 %:0,57-1,17), le cholestérol LDL (-0,84 mmol/ L, IC 95 %: 0,55-1,13) et l’hémoglobine glyquée (-1,32 %, IC 95 %:-0,17-2,80) se sont significativement améliorés. L’analyse thématique des données qualitatives révèle que le programme, par la stimulation de valeurs de santé, d’éthique et d’intégrité, favorise la transformation des choix alimentaires vers une posture davantage axée sur les VMT durant une période clé du parcours de vie (i.e. pré-retraite). D’autres déterminants pouvant favoriser l’adoption d’une alimentation VMT ont été identifiés, dont les bénéfices importants observables à court terme, l’absence de restriction à l’égard de la quantité d’aliments VMT et le développement de compétences de planification dans l’acquisition et la préparation des aliments. Conclusion : Une intervention priorisant les VMT permet d’améliorer le profil cardiométabolique d’individus pré-retraités en raison de ses caractéristiques intrinsèques, mais aussi parce qu’elle modifie les valeurs impliquées dans les choix alimentaires.
Resumo:
La décennie 1994-2004 est d’une importance majeure pour l’Afrique du Sud nouvellement démocratique. Au cours de cette période, le pays jette les bases de sa reconstruction à travers la mise en place de réformes politiques, économiques et sociales afin de combattre les méfaits de quarante années d’apartheid et de poser les jalons de son développement. Dans ce contexte, les médias internationaux ont porté une attention particulière à ces nombreux changements, plus spécifiquement la presse écrite canadienne et britannique, en particulier le Globe and Mail et le Times. Notre mémoire s’intéresse donc au traitement fait par ces deux quotidiens, l’un torontois l’autre londonien, de la reconstruction sud-africaine et ce, à travers l’analyse de thèmes précis et de ses réformes marquantes. Il sera plus spécifiquement question des réformes politiques et constitutionnelles avec la figure de Nelson Mandela, héros de la lutte contre l’apartheid, père de la « nation arc-en-ciel » ainsi que celle de son successeur à la présidence sud-africaine en 1999, Thabo Mbéki. Aussi, la Commission Vérité et Réconciliation et la nouvelle Constitution, toutes deux mises en place durant l’année 1996 sont majeures puisqu’elles dictent la nouvelle identité donnée au pays. Les réformes socioéconomiques de la reconstruction ont également attirés l’attention de nos deux journaux. Particulièrement, nous analyserons les points de vue de ceux-ci concernant le Reconstruction and Development Programme (RDP) ainsi que de la « discrimination positive » et du Black Economic Empowerment (BEE), deux mesures censées contribuer à l’amélioration de la qualité de vie de la population et à effacer les profondes inégalités socioéconomiques léguées par l’apartheid. Or, cet espoir d’une vie meilleure laisse rapidement place à un désenchantement. La forte criminalité et la dramatique explosion du VIH-sida dans une nouvelle Afrique du Sud qui cherche à se reconstruire a beaucoup retenu l’attention du Globe and Mail et du Times. Ces deux défis de taille s’avèrent être l’envers de la médaille du miracle sud-africain et ne manquent pas d’attirer l’attention des deux journaux, mettant clairement en évidence les « ratés » socioéconomiques » de la reconstruction.
Resumo:
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
Resumo:
La synthèse d’un ARNm eucaryotique dépend d’une suite d’étapes qui inclut notamment l’ajout d’une queue poly(A) à son extrémité 3’. Au noyau, la queue poly(A) des ARNms est liée par PABPN1 (poly(A)-binding protein nuclear 1). PABPN1 fut notamment caractérisée, d’après des études in vitro, pour stimuler la réaction de polyadénylation en plus de contrôler la taille ultime des queues poly(A). Cela dit, la ou les fonction(s) biologique(s) de PABPN1 est/sont cependant largement méconnue(s). Chez Schizosaccharomyces pombe (S. pombe), Pab2 est l’orthologue présumé de PABPN1. Or, mes travaux indiquent que Pab2 est fonctionnellement différente de PABPN1 à l’égard de son rôle sur le processus général de polyadénylation. Ainsi, in vivo, l’absence de Pab2 entraîne l’expression et l’accumulation d’un groupe limité d’ARNs hyperadénylés parmi lesquels se trouvent de nombreux petits ARNs nucléolaires non-codants (snoRNAs) lesquels constituent normalement un groupe abondant d’ARN poly(A)-. Mes résultats supportent ainsi un mécanisme par lequel des snoRNAs immatures poly(A)+, sont convertis en une forme mature poly(A)- par le biais de Pab2 et de l’activité 3’-->5’ exoribonucléase de l’exosome à ARN. Ces observations sont inusitées dans la mesure où elles associent une fonction pour une PABP dans la maturation d'ARNs non-codants, contrairement à la notion que les PABPs travaillent exclusivement au niveau des ARNms, en plus de procurer une nouvelle perspective face au mécanisme de recrutement de l'exosome à ARN à des substrats poly(A)+. La formation de l’extrémité 3’ d’un ARN est un processus étroitement lié à la terminaison de sa transcription. Pour les gènes codants, la terminaison transcriptionnelle est initiée par le clivage endonucléolytique du pré-ARNm. Ce clivage génère une extrémité d’ARN 5’ libre laquelle sera ciblée par une exoribonucléase 5'-->3’ afin de mener à bien l’éviction de l’ARNPII de la matrice d’ADN (terminaison transcriptionnelle de type torpedo). Au contraire, chez Saccharomyces cerevisiae (S. cerevisiae), la majorité des gènes non-codants, incluant les snoRNAs, dépendent plutôt du complexe NNS (Nrd1/Nab3/Sen1) pour la terminaison de leur transcription. Cela dit, il est incertain si le complexe NNS est conservé chez d’autres espèces. À cet égard, mes travaux indiquent que S. pombe est dépourvu d’un mécanisme de terminaison de la transcription de type NNS. Seb1, l’orthologue présumé de Nrd1 chez S. pombe, s’associe plutôt à la machinerie de clivage et de polyadénylation et influence la sélection de site de polyadénylation à l’échelle du génome. Mes résultats supportent ainsi l’utilisation de la machinerie de maturation 3’ des ARNms comme principal vecteur de terminaison transcriptionnelle chez S. pombe et identifient Seb1 comme un facteur clé de ce processus. L’évènement transcriptionnel étant hautement complexe, des erreurs peuvent arriver de manière stochastique menant à l’accumulation d’ARNs aberrants potentiellement néfastes pour la cellule. Or, mes travaux ont mis en lumière un mécanisme de surveillance co-transcriptionnel des ARNs impliquant l’exosome à ARN et lié à la terminaison de la transcription. Pour ce faire, l’exosome à ARN promeut la terminaison transcriptionnelle via la dégradation d’une extrémité 3’ libre d’ARN devenue émergente suite au recul de l’ARNPII le long de la matrice d’ADN (phénomène de backtracking). Mes résultats supportent ainsi une terminaison de la transcription de type torpedo inversé (3'-->5’) réévaluant par la même occasion le concept voulant que la terminaison de la transcription s’effectue uniquement selon une orientation 5’-->3’. Somme toute, mes travaux de doctorat auront permis d’identifier et de caractériser plus en détail les facteurs et mécanismes impliqués dans la maturation 3’ et la terminaison de la transcription des gènes codants et non-codants chez l’organisme modèle S. pombe.
Resumo:
Traditional teaching methods in the classroom also limit opportunities for student engagement due to large class sizes and the desire to ensure students receive all of the material required in a particular session. It has been documented that the use of Information Technolgy (IT); in particular «clickers», can increase student participation, improve knowledge retention and assist in stimulating critical thinking in a classroom setting. However, the introduction of IT, on top of normal teaching demands, can be probelmatic as it requires changes to course planners, IT training, support staff and additional funding, all of wich have been documented in research. Wolski and Jackson (1999) have postulated that success is a function of the usefulness and the ease of use of a particular technology for faculty members. Research has shown that classroom technology is simply a tool to be used by educators as one of many. Those who tend to use it well are already innovative and technically adept (Zhao, Pugh, Sheldon & Bryers, 2002).||Résumé : Les méthodes d'enseignement traditionnelles en cour magistral ont aussi tendance à limiter l'engagement et la participation des étudiants dû à la taille souvent excessive des classes, mais aussi à cause du désire de l'enseignant de vouloir s'assurer de la transmission du contenu pédagogique complet. Il est bien documenté que l'usage des nouvelles technologies, en particulier les télévoteurs («clickers», peut accroître la participation des étudiants, améliorer la rétention de l'information mais aussi de stimuler, dans le contexte académique, la pensée critique. Malheureusement, tel que démontré par la recherche, l'introduction de ces nouvelles technologies pose problème lorsqu'additionné aux contraintes normales d'enseignement puisque qu'elle nécessite des changements à la planification des cours, requiert une formation spécifique, un support additionnel ainsi que le financement nécessaire. Wolski and Jackson (1999) ont postulé de plus que le succès de l'implantation d'une nouvelle technologie était en fonction de son utilité et de sa facilité d'utilisation par les membres de la faculté. Il a aussi été démontré que la technologie de l'enseignement en classe n'était en fait qu'un outil de plus à la disposition des enseignants, et que ceux qui avaient tendance à bien l'utiliser étaient de fait inoovateurs, possédant des capacités techniques (Zhao, Pugh, Sheldon et Bryers, 2002).
Resumo:
La présente étude porte sur les facteurs déterminants d’une expérience significative en psychothérapie selon la perspective de clients adultes. Les deux principaux objectifs poursuivis dans cette thèse sont : 1) l’exploration et la description des facteurs déterminants d’une expérience significative en psychothérapie selon la perspective des clients; et 2) l’élaboration d’une représentation synthétique et structurée de ces facteurs. Les facteurs déterminants sont regroupés sous sept catégories (Clients, Psychothérapeutes, Relation thérapeutique, Environnements, Impacts, Temps et Investissements) et sous quatre sous-catégories (Corporelle, Émotionnelle, Cognitive et Interactive).
Resumo:
La recension des écrits scientifiques à laquelle nous avons procédé a souligné clairement de très hautes fréquences de redoublement chez les jeunes d’âge scolaire relevant des enseignements primaire et post-primaire, dans les ex-colonies françaises d’Afrique occidentale et centrale (Burkina-Faso, Sénégal, Gabon). Au Burkina Faso, le taux moyen de redoublement observé au post-primaire a été d’environ 30 % au cours du quinquennat 2007/2008 à 2012/2013. La région du Centre-Ouest est celle qui en a enregistré le taux le plus élevé (33,1 %) sur les treize régions administratives du pays au cours de la période mentionnée, ce qui a justifié son choix dans le cadre de cette étude. L’objectif général visait à déterminer, dans le microsystème qu’est l’école au post-primaire général public, les caractéristiques des représentations sociales (RS) et des modèles d’intervention éducative (MIE) valorisés chez des enseignants et des directions d’écoles qui sont en relation avec le redoublement d’élèves habitant la région ciblée. L’étude menée est quantitative et de type descriptif. Dans le cadre de celle-ci nous avons fait usage d’une démarche d’enquête par questionnaire auprès d’un échantillon de convenance, stratifié et pondéré constitué de 199 enseignantes et enseignants, incluant un membre du personnel de direction pour chacune des institutions de provenance des sujets (N = 14 directions). Le résultat majeur est spécifique aux enseignants titulaires du CAPES (diplôme pédagogique le plus élevé) qui travaillent dans les communes urbaines où les écoles présentent un seuil élevé de redoublement (21 % et plus). Il suggère des caractéristiques qui correspondent à des profils de valorisation élevés de la représentation positive du redoublement d’une part, et de celle de l’externalité des causes du phénomène, d’autre part. Les principales caractéristiques des MIE privilégiés par ces derniers rapportent, quant à elles, une valorisation moyenne ou faible du MIE 3 (hétérostructuration coactive) et concomitamment une valorisation élevée du MIE 4 (interstructuration cognitive). Cependant, les données recueillies auprès des directions d’écoles dont la taille sous-échantillonnale demeure restreinte n’ont permis qu’une interprétation limitée hors de laquelle notre discours s’avérerait hautement spéculatif. Les enseignants et les directions d’école pourront bénéficier de l’intégration des données issues de l’étude au plan de la formation continue. Ils pourront par conséquent questionner leurs pratiques pédagogiques et leurs attitudes au regard des causes et des effets réels du redoublement sur la réussite et la persévérance scolaire des jeunes au post-primaire. Cela dans un contexte, où la scolarisation de base obligatoire de 10 ans constitue un objectif visé à l’horizon 2025 par le gouvernement du Burkina Faso dans le cadre de la réforme éducative engagée depuis 2007.