37 resultados para Pression plantaire
Resumo:
Dans ce travail d'essai, nous nous intéressons au rôle et aux responsabilités du conseil d’administration ; cela, du fait que le phénomène de conseil d'administration est l'une des bases essentielles qui caractérise la gestion dans les structures économiques et sociales de mon pays: la Guinée. Mais, compte tenu de plusieurs facteurs dont nous énumérerons certains dans ce travail, nos conseils d'administration ont des responsabilités limitées face à leurs membres et leurs activités restreintes par une participation honorifique des membres du conseil d'administration à la gestion et au contrôle des affaires de la coopérative. Cette participation doit pourtant être conforme à l’évolution des lois et des attentes des membres de la coopérative, également d'un public devenu de plus en plus exigeant et revendicateur. Le conseil d'administration aura toujours à répondre à une triple responsabilité ; face au gouvernement par le biais des lois, aux membres et aux autres groupes de pression possibles: clients, employés et grand public. L'administrateur aura dès lors un rôle important à jouer, il devra être mieux informé et on exigera de lui une excellente capacité et une plus grande disponibilité afin d'être toujours pleinement responsable. Vu cette situation, nous voulons traiter du sujet sur le conseil d'administration de caisses populaires du Québec, pour nous permettre d'avoir une connaissance générale du rôle, des responsabilités et du fonctionnement d'un conseil d’administration. Cet essai terminé, nous l'espérons, nous servira plus tard de référence (guide) dans nos activités quotidiennes en Guinée.
Resumo:
Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
L’industrie des biocarburants de deuxième génération utilise, entre autre, la biomasse lignocellulosique issue de résidus forestiers et agricoles et celle issue de cultures énergétiques. Le sorgho sucré [Sorghum bicolor (L.) Moench] fait partie de ces cultures énergétiques. L’intérêt croissant de l’industrie agroalimentaire et des biocarburants pour cette plante est dû à sa haute teneur en sucres (jusqu’à 60% en masse sèche). En plus de se développer rapidement (en 5-6 mois), le sorgho sucré a l’avantage de pouvoir croître sur des sols pauvres en nutriments et dans des conditions de faibles apports en eau, ce qui en fait une matière première intéressante pour l’industrie, notamment pour la production de bioéthanol. Le concept de bioraffinerie alliant la production de biocarburants à celle de bioénergies ou de bioproduits est de plus en plus étudié afin de valoriser la production des biocarburants. Dans le contexte d’une bioraffinerie exploitant la biomasse lignocellulosique, il est nécessaire de s’intéresser aux différents métabolites extractibles en plus des macromolécules permettant la fabrication de biocarburants et de biocommodités. Ceux-ci pouvant avoir une haute valeur ajoutée et intéresser l’industrie pharmaceutique ou cosmétique par exemple. Les techniques classiques pour extraire ces métabolites sont notamment l’extraction au Soxhlet et par macération ou percolation, qui sont longues et coûteuses en énergie. Ce projet s’intéresse donc à une méthode d’extraction des métabolites primaires et secondaires du sorgho sucré, moins coûteuse et plus courte, permettant de valoriser économiquement l’exploitation industrielle du de cette culture énergétique. Ce travail au sein de la CRIEC-B a porté spécifiquement sur l’utilisation d’une émulsion ultrasonique eau/carbonate de diméthyle permettant de diminuer les temps d’opération (passant à moins d’une heure au lieu de plusieurs heures) et les quantités de solvants mis en jeu dans le procédé d’extraction. Cette émulsion extractive permet ainsi de solubiliser à la fois les métabolites hydrophiles et ceux hydrophobes. De plus, l’impact environnemental est limité par l’utilisation de solvants respectueux de l’environnement (80 % d’eau et 20 % de carbonate de diméthyle). L’utilisation de deux systèmes d’extraction a été étudiée. L’un consiste en la recirculation de l’émulsion, en continu, au travers du lit de biomasse; le deuxième permet la mise en contact de la biomasse et des solvants avec la sonde à ultrasons, créant l’émulsion et favorisant la sonolyse de la biomasse. Ainsi, en réacteur « batch » avec recirculation de l’émulsion eau/DMC, à 370 mL.min[indice supérieur -1], au sein du lit de biomasse, l’extraction est de 37,91 % en 5 minutes, ce qui est supérieur à la méthode ASTM D1105-96 (34,01 % en 11h). De plus, en réacteur « batch – piston », où la biomasse est en contact direct avec les ultrasons et l’émulsion eau/DMC, les meilleurs rendements sont de 35,39 % en 17,5 minutes, avec 15 psig de pression et 70 % d’amplitude des ultrasons. Des tests effectués sur des particules de sorgho grossières ont donné des résultats similaires avec 30,23 % d’extraits en réacteur « batch » avec recirculation de l’émulsion (5 min, 370 mL.min[indice supérieur -1]) et 34,66 % avec le réacteur « batch-piston » (30 psig, 30 minutes, 95 % d’amplitude).
Resumo:
L'enfant ayant une déficience motrice cérébrale (DMC) légère présente des déficits posturaux qui limitent son intégration sociale. L'hippothérapie est une forme d'intervention utilisant le mouvement du cheval pour stimuler des réajustements posturaux. L’objectif de cette recherche était de quantifier l’effet de 10 semaines d’hippothérapie sur le contrôle postural et la motricité d'enfants ayant une DMC légère. Un devis pré-expérimental à mesures répétées où chaque enfant (n=13) est son propre contrôle a été utilisé. Les critères d’inclusion étaient: être âgés entre 4 et 16 ans et avoir une DMC légère. L’intervention d’une durée de 10 semaines consistait en une séance par semaine d’hippothérapie de 30 minutes, où l'enfant était placé dans différentes positions sur le cheval. La motricité globale, particulièrement la capacité à se tenir debout, marcher, courir et sauter a été mesurée par les dimensions D et E du Gross Motor Function Measure (GMFM-88) et la coordination, la vitesse, la force et l’équilibre par le Bruininks-Oseretski Test of Motor Proficiency-Short Form (BOT2-SF). La motricité fine a été évaluée par différentes tâches de précision, d’intégration et de dextérité manuelle (BOT2-SF). Les variables biomécaniques évaluant la stabilité posturale en position assise et debout ont été quantifiées par le déplacement du centre de pression (CdeP). Le déplacement des membres supérieurs a été enregistré lors de tâches unilatérales à l'aide d’un système d’analyse tridimensionnelle du mouvement (VICON). Treize sujets (âgés de 7,3 ± 2,7 ans) ont été évalués avant (mesure de base), après l’intervention et à 10 semaines post-intervention (mesure de suivi). La stabilité posturale de l’enfant sur le cheval a été évaluée à l’aide de modules inertiels multiaxiaux fixés sur le cheval et sur l’enfant (tête, tronc) à deux temps pendant l’intervention. À la suite de l’intervention, la motricité globale s’est améliorée significativement (GMFM-88 dimensions; p=0,005 et BOT2-SF total; p=0,006), et spécifiquement au niveau de la force des abdominaux et des membres supérieurs (p=0,012), de l’équilibre (p=0,025) et des activités de précision de la main (p=0,013). Les analyses du contrôle postural sur le cheval montrent une augmentation de la fréquence cumulée dans la direction médiolatérale (M/L) (p=0,033), et une diminution de l’amplitude de la fréquence cumulée en vertical (p=0,007). Ces résultats peuvent s’interpréter comme étant une augmentation de la rapidité d'adaptation dans la direction M/L doublée d'un amortissement du tronc diminué dans l’axe vertical. Le contrôle postural debout statique s'est amélioré (p=0,013) dans l'axe M/L attribuable aux enfants diplégiques de l'étude. Ces résultats se sont maintenus après la fin de l’intervention. Aucune amélioration du déplacement des membres supérieurs n'a été notée. Nos résultats permettent de suggérer l’utilisation de l'hippothérapie, par les professionnels de la réadaptation, comme complément à l'intervention traditionnelle.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
L’objectif de cet essai est d’élaborer des outils afin de connaître, comprendre et suivre les fuites de nitrates d’origine agricole dans le périmètre du SAGE Rance Frémur baie de Beaussais. Les outils sont de deux catégories : des références agronomiques locales et des indicateurs de suivi. Le premier type d’outils doit permettre aux exploitants d’adapter leurs pratiques agricoles en fonction du contexte pédoclimatique, afin de réduire l’impact négatif sur les fuites de nitrates. Le second type d’outils a pour but d’évaluer la situation des fuites de nitrates à l’échelle du bassin versant. Ces indicateurs ont pour objectif de suivre les pratiques agricoles en lien avec les fuites de nitrates et de suivre l’état des milieux aquatiques pour ce paramètre chimique. Avant de proposer des outils adaptés, il est nécessaire de comprendre les enjeux liés aux nitrates sur le territoire étudié. Une bonne connaissance du territoire s’accompagne de connaissances théoriques indispensables sur les mécanismes responsables des fuites de nitrates. Ces mécanismes sont influencés par plusieurs facteurs en interaction : les facteurs environnementaux et les facteurs humains. Pour les facteurs environnementaux, plusieurs projets scientifiques spécifiques sont en œuvre sur le territoire pour mieux les appréhender. Concernant les facteurs humains, plusieurs dispositions politiques et réglementaires les encadrent, encourageant les bonnes pratiques, de gré ou de force. Parmi elles, la Directive Nitrates en vigueur dans l’Union européenne depuis 1991 fait figure de proue. À l’échelle locale, le SAGE révisé de la Rance, du Frémur et de la baie de Beaussais a été approuvé par arrêté préfectoral et est en application depuis décembre 2013. Ce document a pour but d’atteindre le bon état écologique des eaux. Plusieurs dispositions concernent le monde agricole et certaines d’entre elles ciblent spécifiquement la réduction des fuites d’azote. L’essai vise à mettre en œuvre deux d’entre elles, l’orientation de gestion n°17 (Élaboration de référentiels agronomiques locaux) et la disposition n°39 (Connaître et suivre la pression azotée et les pratiques agricoles). La thématique des pollutions liées à l’azote alimente les revues scientifiques et techniques depuis plus de 15 ans, avec une quantité importante d’outils préconisés qui s’ajoutent les uns aux autres. Or pour une mise en œuvre efficace sur le territoire, il est nécessaire de restreindre ce nombre : ce qui implique une sélection méthodique des outils les plus pertinents pour satisfaire l’objectif de l’essai. Au total, une dizaine de références agronomiques locales sont répertoriées et huit indicateurs de suivi sont proposés. Un tableau de bord a été élaboré afin de faciliter l’articulation et l’interprétation des indicateurs.
Resumo:
Au cours des trois dernières décennies, un nombre grandissant de chercheurs et de cliniciens se sont intéressés à la méditation comme stratégie de régulation attentionnelle et émotionnelle. Plusieurs études ont mis en évidence un lien entre la pratique de la méditation en pleine conscience, l’alliance thérapeutique et l’empathie. Plus récemment, des pratiques méditatives portant sur l’amour bienveillant et la compassion ont également suscité l’intérêt de la communauté scientifique. Les pratiques de méditation de compassion pourraient s’avérer tout aussi utiles que la pleine conscience dans le développement de l’empathie et offriraient de surcroit une certaine protection contre la fatigue empathique. L’objectif principal de cette thèse consiste à mieux comprendre l’impact de la méditation de compassion sur l’empathie des psychothérapeutes. À cette fin, la thèse est composée de deux articles explorant le lien entre la méditation de compassion et l’empathie des psychothérapeutes sous des angles complémentaires. Le premier article présente une revue des écrits portant sur le lien entre la pratique de la méditation de compassion et l’empathie des psychothérapeutes. L’objectif de cette revue des écrits est de répondre à la question suivante : la méditation de compassion peut-elle contribuer au développement de l’empathie des psychothérapeutes? Étant donné les nombreux liens et les chevauchements entre les pratiques de méditation en pleine conscience et les pratiques de méditation de compassion, les études portant sur le lien entre pleine conscience et empathie sont également considérées dans cette revue des écrits. Il apparaît, au terme de cette revue de littérature, que les pratiques de méditation de compassion peuvent augmenter l’activation de circuits neuronaux importants pour l’empathie. Ces pratiques de méditation semblent également améliorer l’empathie affective et la justesse de la perception empathique lorsque ces variables sont mesurées à l’aide d’échelles d’auto-évaluation. La méditation de compassion diminuerait également l’intensité des affects négatifs accompagnant l’empathie pour la douleur d’autrui. Tout en permettant de constater que la méditation de compassion semble avoir des impacts positifs sur divers aspects de l’empathie, la revue des écrits présentée dans le premier chapitre a permis de relever certaines limites des études citées et de suggérer quelques pistes de recherches futures. Ainsi, on note que la méditation en pleine conscience et la méditation de compassion sont souvent présentées conjointement et ce, à des participants n’ayant aucune expérience préalable de méditation. Cela fait en sorte qu’il est difficile de déterminer avec certitude si les bienfaits rapportés par les participants sont attribuables à la méditation de compassion, ou s’ils sont simplement dûs au fait que les participants ont entamé une pratique de méditation. Cela soulève donc la question suivante : quel est l’impact spécifique de la méditation de compassion sur l’empathie des psychothérapeutes, au delà des bienfaits qu’ils retirent déjà de la méditation en pleine conscience? C’est à cette question que tente de répondre l’étude conduite dans le cadre de la présente thèse et qui constitue l’objet du deuxième article. Dans le cadre de cette étude, un entraînement à la méditation de compassion a été offert à trois psychothérapeutes d’expérience ayant déjà une pratique régulière de la méditation en pleine conscience. L’entraînement proposé consistait en une pratique guidée de la méditation de compassion, offerte sur un enregistrement audio-numérique, à raison de vingt minutes par jour, à tous les deux jours, pendant quatre semaines. Des entrevues semi-structurées ont eu lieu avant l’entraînement, puis au terme des quatre semaines d’entraînement, de même que lors d’un suivi effectué quatre semaines plus tard. Une analyse compréhensive du récit phénoménologique des participants a mis en lumière des changements touchant quatre aspects principaux de l’expérience empathique : 1) la relation à soi; 2) l’expérience empathique elle-même; 3) l’expérience d’une relation thérapeutique; et 4) l’intégration du changement. À travers ces quatre aspects, des changements touchant diverses dimensions de l’expérience empathique sont abordés comme : la compassion pour soi, la pression de performance, la qualité de la présence à l’autre, l’acceptation de l’autre, la tolérance à la souffrance, et l’amour altruiste. Cette étude a donc permis de constater que même des psychothérapeutes d’expérience ayant déjà une pratique régulière de méditation en pleine conscience peuvent retirer des bienfaits de la méditation de compassion, tant au niveau de leur expérience empathique qu’au niveau de la prévention de la fatigue empathique et de l’épuisement professionnel. Cette thèse apporte donc une contribution originale à la compréhension de l’impact spécifique de la méditation de compassion sur l’empathie des psychothérapeutes en permettant de mieux saisir, à partir d’une perspective phénoménologique, l’influence de cette pratique de méditation sur divers aspects et dimensions de l’expérience empathique. En donnant la parole à des psychothérapeutes d’expérience ayant déjà une pratique de méditation en pleine conscience, l’étude met en lumière les bienfaits propres à la méditation de compassion au niveau de l’expérience empathique et au niveau de la prévention de la fatigue empathique. À ce titre, elle offre des pistes permettant d’améliorer tant la formation de base que la formation continue des psychothérapeutes en s’appuyant sur des données scientifiques probantes.
Resumo:
La municipalité régionale de comté des Pays-d'en-Haut, située dans les Laurentides possède, sur son territoire, de nombreux milieux humides. Ils subissent une forte pression anthropique due au développement domiciliaire et à la croissance démographique dans la région, ayant pour conséquence la perte continue de superficie de milieux humides. Les biens et services écologiques qu’ils procurent à la société, qu’ils soient d’ordre économique, écologique, culturel ou social, sont autant d’arguments ayant poussé la municipalité régionale de comté des Pays-d'en-Haut à mieux connaitre et protéger ces milieux sensibles. Dans l’optique de réaliser une meilleure gestion du territoire, en dotant toutes ses municipalités d’un outil d’information et d’aide à la décision fiable et à jour, répondant de manière adéquate aux besoins des gestionnaires du territoire impliqués dans l’aménagement, la protection et la mise en valeur des espaces naturels, la municipalité régionale de comté des Pays-d'en-Haut veut réaliser un plan de conservation des milieux humides sur l’ensemble de son territoire. Un tel plan permet non seulement de favoriser l’intégration des milieux humides d’intérêt à la planification territoriale, mais peut également faciliter la préparation des demandes d’autorisations exigées par le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques, en vertu de la Loi sur la qualité de l’environnement et de la Loi concernant des mesures de compensation pour la réalisation de projets affectant un milieu humide ou hydrique. Afin de rédiger ce plan de conservation, plusieurs étapes sont nécessaires. Premièrement, des campagnes d’inventaire et de caractérisation ont eu lieu lors des dernières années. Deuxièmement, une cartographie détaillée des milieux humides a été réalisée. L’étape suivante consistait à développer une manière d’évaluer la valeur des écosystèmes humides dans le but de les prioriser. La démarche méthodologique d’évaluation des milieux humides représente le cœur d’un plan de conservation. Il fallait qu’elle se base sur des critères fiables et quantifiables. Un des objectifs principaux de cet essai était de proposer une méthodologie en se basant sur des sources scientifiques reconnues et crédibles. Aussi, la méthodologie proposée repose sur l’évaluation des valeurs écologique, économique et socioculturelle par la prise en compte des biens et services écosystémiques. L’autre objectif de l’essai était de mieux comprendre et apprivoiser les aspects législatifs relatifs à la protection des milieux humides. Une revue des lois et règlements fédéraux, provinciaux et municipaux a été faite. Un examen de la doctrine juridique est venu compléter l’analyse. Finalement, des constats sur la démarche et sur les aspects juridiques ont été faits, et des recommandations ont été formulées afin que la municipalité régionale de comté des Pays-d'en-Haut et les municipalités poursuivent leur démarche visant la protection et la conservation des milieux humides.
Resumo:
Les cégépiens d’aujourd’hui sont bien différents de ceux des années 1970 et cela pour toutes sortes de raisons, notamment l’immigration. Cette diversité ethnoculturelle que connaissent les cégeps depuis bon nombre d’années amène un certain remous dans l’enseignement et particulièrement dans l’enseignement en milieu clinique. En stage, le bagage socioculturel des apprenantes et apprenants est davantage sollicité qu’en classe. Ce qui n’a pas été appris en classe révèle toute son importance en milieu clinique. Et comme une boîte de Pandore, ce constat se fait souvent alors que personne ne s’y attend, pas même la ou le stagiaire. Les stagiaires immigrants ont un bagage socioculturel différent de leurs homologues québécois. Si nous prenons en exemple la profession infirmière, une profession connue à l’échelle planétaire, elle ne s’exerce pas de la même manière dans tous les pays. Au Québec, le rôle de l’infirmière rime avec autonomie et leadership. Ce qui n’est pas le cas dans tous les pays. D’autres concepts peuvent différer d’une ou d’un stagiaire immigrant à un autre et peuvent nécessiter plus d’une rectification de la part des professeures et professeurs. En tant que professeure au collégial en soins infirmiers en milieu clinique, nous avons observé que plusieurs de nos stagiaires immigrants avaient de la difficulté à réussir leurs stages en Soins infirmiers. En même temps, la réalité exigeante de notre profession pose tout un défi à ceux et celles qui veulent adapter leur enseignement clinique à la diversité ethnoculturelle de leurs stagiaires immigrants. Les stages dans le programme Soins infirmiers au Québec nécessitent une certaine maîtrise de la langue française, une connaissance des codes culturels et des comportements sociaux. Par ailleurs, le facteur temps en milieu clinique exacerbe souvent les difficultés de tous les stagiaires. Plusieurs études ont été faites pour aider les étudiantes et étudiants immigrants à réussir, mais peu pour les enseignantes et enseignants. Dans le cadre de cette étude, nous cherchons à voir jusqu’où le corps professoral en milieu clinique, dans le programme Soins infirmiers, s’est adapté ou a adapté son enseignement à la diversité ethnoculturelle des stagiaires. Pour ce faire, nous avons pris en compte les deux rôles principaux de la professeure et du professeur dans le programme Soins infirmiers en milieu clinique, soit les rôles d’enseignante infirmière ou d’enseignant infirmier responsable et de préceptrice ou de précepteur. Nous avons dégagé, dans le cadre de référence, six manifestations d’un processus d’adaptation à la diversité ethnoculturelle du corps professoral en Soins infirmiers. Cette démarche nous a permis de réaliser un questionnaire pluridimensionnel des compétences interculturelles de la professeure et du professeur en Soins infirmiers en milieu clinique. Par l’entremise du questionnaire et d’un groupe de discussion, cette recherche qualitative de type interprétatif nous a permis, dans un premier temps, d’établir un constat des compétences interculturelles des professeures et professeurs superviseurs de stage dans le programme Soins infirmiers au collège Montmorency. Dans un second temps, cette étude nous a permis de trouver des pistes de solutions pour poursuivre l’adaptation à la diversité ethnoculturelle du corps professoral dans le programme Soins infirmiers en milieu clinique.
Resumo:
Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
La compréhension de l'aérothermique d'un véhicule durant sa phase de développement est une question essentielle afin d'assurer, d'une part, un bon refroidissement et une bonne efficacité de ses composants et d'autre part de réduire la force de traînée et évidement le rejet des gaz à effet de serre ou la consommation d'essence. Cette thèse porte sur la simulation numérique et la validation expérimentale de l'aérothermique d'un véhicule à trois roues dont deux, en avant et une roue motrice en arrière. La simulation numérique est basée sur la résolution des équations de conservation de la masse, de la quantité de mouvement et de l'énergie en utilisant l'approche RANS (Reynolds-Averaged Navier-Stokes). Le rayonnement thermique est modélisé grâce à la méthode S2S (Surface to Surface) qui suppose que le milieu séparant les deux surfaces rayonnantes, ici de l'air, ne participe pas au processus du rayonnement. Les radiateurs sont considérés comme des milieux poreux orthotropes où la perte de pression est calculée en fonction de leurs propriétés inertielle et visqueuse; leur dissipation thermique est modélisée par la méthode Dual flow. Une première validation de l'aérodynamique est faite grâce à des essais en soufflerie. Ensuite, une deuxième validation de la thermique est faite grâce à des essais routiers. Un deuxième objectif de la thèse est consacré à la simulation numérique de l'aérodynamique en régime transitoire du véhicule. La simulation est faite à l'aide de l'approche Detached eddy simulation (DES). Une validation expérimentale est faite à partir d'étude en soufflerie grâce à des mesures locales de vitesse à l'aide de sondes cobra.
Resumo:
Résumé : Au Canada, près de 80% des émissions totales, soit 692 Mt eq. CO[indice inférieur 2], des gaz à effet de serre (GES) sont produits par les émissions de dioxyde de carbone (CO[indice inférieur 2]) provenant de l’utilisation de matières fossiles non renouvelables. Après la Conférence des Nations Unies sur les changements climatiques, COP21 (Paris, France), plusieurs pays ont pour objectif de réduire leurs émissions de GES. Dans cette optique, les microalgues pourraient être utilisées pour capter le CO[indice inférieur 2] industriel et le transformer en biomasse composée principalement de lipides, de glucides et de protéines. De plus, la culture des microalgues n’utilise pas de terre arable contrairement à plusieurs plantes oléagineuses destinées à la production de biocarburants. Bien que les microalgues puissent être transformées en plusieurs biocarburants tels le bioéthanol (notamment par fermentation des glucides) ou le biométhane (par digestion anaérobie), la transformation des lipides en biodiesel pourrait permettre de réduire la consommation de diesel produit à partir de pétrole. Cependant, les coûts reliés à la production de biodiesel à partir de microalgues demeurent élevés pour une commercialisation à court terme en partie parce que les microalgues sont cultivées en phase aqueuse contrairement à plusieurs plantes oléagineuses, ce qui augmente le coût de récolte de la biomasse et de l’extraction des lipides. Malgré le fait que plusieurs techniques de récupération des lipides des microalgues n’utilisant pas de solvant organique sont mentionnées dans la littérature scientifique, la plupart des méthodes testées en laboratoire utilisent généralement des solvants organiques. Les lipides extraits peuvent être transestérifiés en biodiesel en présence d’un alcool tel que le méthanol et d’un catalyseur (catalyses homogène ou hétérogène). Pour la commercialisation du biodiesel à partir de microalgues, le respect des normes ASTM en vigueur est un point essentiel. Lors des essais en laboratoire, il a été démontré que l’extraction des lipides en phase aqueuse était possible afin d’obtenir un rendement maximal en lipides de 36% (m/m, base sèche) en utilisant un prétraitement consistant en une ébullition de la phase aqueuse contenant les microalgues et une extraction par des solvants organiques. Pour l’estérification, en utilisant une résine échangeuse de cations (Amberlyst-15), une conversion des acides gras libres de 84% a été obtenue à partir des lipides de la microalgue Chlorella protothecoïdes dans les conditions suivantes : température : 120°C, pression autogène, temps de réaction : 60 min, ratio méthanol/lipides: 0.57 mL/g et 2.5% (m/m) Amberlyst-15 par rapport aux lipides. En utilisant ces conditions avec une catalyse homogène (acide sulfurique) et une seconde étape alcaline avec de l’hydroxyde de potassium (température : 60°C ; temps de réaction : 22.2 min; ratio catalyseur microalgue : 2.48% (m/m); ratio méthanol par rapport aux lipides des microalgues : 31.4%), un rendement en esters méthyliques d’acides gras (EMAG) de 33% (g EMAG/g lipides) a été obtenu à partir des lipides de la microalgue Scenedesmus Obliquus. Les résultats démontrent que du biodiesel peut être produit à partir de microalgues. Cependant, basé sur les présents résultats, il sera necessaire de mener d’autre recherche pour prouver que les microalgues sont une matière première d’avenir pour la production de biodiesel.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.