43 resultados para haute couture


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la profession d’éducatrice et d’éducateur, le savoir-être revêt une importance particulière. Pour plusieurs, cet apprentissage se fait sans heurt, mais pour d’autres, il arrive que cet apprentissage soit problématique. Dès mon entrée dans la profession d’enseignante au collégial, j’ai rapidement été confrontée à la gestion des attitudes parmi la clientèle étudiante. Les discussions entre collègues renforçaient cette impression que certaines et certains étudiants éprouvaient de sérieuses difficultés à développer les savoir-être essentiels à la profession d’éducatrice et d’éducateur spécialisé. Au fil des trimestres, l’idée s’est imposée d’elle-même : sensibiliser la clientèle étudiante à la gestion des attitudes. Ce champ d’études étant très large, il a fallu circonscrire mon objet de recherche. Cet essai se limite à identifier les savoir-être signifiants à la profession d’éducatrice et d’éducateur spécialisé, afin d’améliorer le développement des compétences professionnelles des étudiantes et des étudiants. Le cadre conceptuel s’articule autour des différents concepts utilisés dans le domaine. Certains auteurs parlent d’attitudes, d’autres exploitent le thème des savoir-être et certains autres encore, utilisent le thème des habiletés socioprofessionnelles. Cette analyse a permis de dégager ma position de chercheuse. Je retiens trois principes de base : - Le savoir-être permet à la personne de réaliser une tâche professionnelle de la meilleure façon qu’il soit. (Boudreault, 2004) - Le savoir-être est un indicateur de performance élevé. (Scallon, 2004) - Le savoir-être est une compétence qui est source de réussite professionnelle. (Bellier, 2004). Les écrits de Bellier (2004), de Boudreault (2004) et de Scallon (2004) cités ci-hauts, font bien comprendre la valeur ajoutée de ce concept en lien avec une profession. Le savoir-être, en contexte de travail, permet à la personne de développer sa compétence professionnelle. Dans cette optique, la première étape pour découvrir les savoir-être signifiants à la profession a été de faire le parallèle entre trois grilles identifiant différents savoir-être. Ces modèles sont inspirés de Boudreault (2004), de Grisé et Trottier (1997) et de l’équipe enseignante en Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska. Cette démarche a permis de regrouper les savoir-être similaires ou équivalents. À partir de ces regroupements, un groupe d’enseignantes et d’enseignants du Département des Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska s’est prononcé, par l’entremise d’entrevues individuelles, sur les savoir-être les plus pertinents à utiliser pour bâtir un sondage électronique. Par la suite, ce sondage a été réalisé avec la collaboration des différents partenaires de stage de la région de la Montérégie ainsi qu’avec la participation de l’équipe enseignante afin de sélectionner les savoir-être signifiants à la profession. Cet exercice a permis d’identifier quatre savoir-être. L’identification de ces savoir-être aidera certainement l’équipe enseignante et les différents milieux de stage, dans leurs interventions pédagogiques. Il reste à souhaiter que la clientèle étudiante profite des résultats de cette recherche en étant mieux outillée pour développer ses compétences professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre étude s’intéresse à la représentation que des étudiants universitaires provenant du nord de l’Italie se font des formes dialectales et des langues minoritaires parlées dans leur région. Notre objectif premier étant de fait, à ce stade de nos recherches, de dégager les représentations que des jeunes citadins instruits se font d’objets linguistiques qui constituent, si nous nous plaçons dans une optique diglossique, la variante basse. Nous pourrions en d’autres termes parler d’une concurrence inégale dans laquelle se trouvent deux langues où nous admettons que l’italien constitue la variété haute et où les dialectes ou langues minoritaires auraient en commun d’être associés à la variété basse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis environ 40 ans, l’intensification des pratiques agricoles a grandement transformé le paysage agricole et ce tant, dans les Amériques qu’en Europe. Quoique, plusieurs espèces animales soient affectées négativement par ces changements, certaines espèces en bénéficient. C’est le cas de la Grande Oie des neiges (Chen caerulescens atlantica) qui a vu sa population croître de façon importante et ce, au point de devenir problématique. De fait, la Grande Oie des neiges cause des dommages importants aux cultures du Québec (1 646 229 ± 800 000 par an entre 2009 et 2015) et aux écosystèmes qu’elle utilise lorsqu’elle fait halte dans la vallée du Saint-Laurent, Québec, Canada. Bien que plusieurs actions aient été tentées pour contrôler sa population le problème persiste. La quête alimentaire des animaux est entre autres modulée par les comportements anti-prédateurs, tels que le temps passé en vigilance et une utilisation différentielle des habitats. Ces comportements sont à leur tour affectés par le risque de prédation et la vie en groupe. En effet, le risque de prédation perçu par un individu dépend entre autres (1) de la taille du groupe auquel il appartient ; (2) de la densité et de l’activité des proies et des prédateurs dans l’environnement ; (3) de son niveau de connaissance de l’environnement ; et (4) des caractéristiques du paysage qu’il occupe. Il s’ensuit que le risque de prédation varie dans l’espace et dans le temps. La représentation cartographique de ce risque à un moment donné consiste en un paysage de la peur, où chaque location ou chaque élément d’un paysage se voit associé un risque de prédation. On s’attend donc à ce que la quête alimentaire des individus, tant dans leur utilisation des habitats que dans leur budget d’activité, soit affectée par la structure du paysage de la peur. Par conséquent, on peut se demander si le paysage de la peur peut être utilisé comme outil de gestion d’une espèce, notamment pour la Grande Oie des neiges. Mon objectif est de quantifier comment la perception du risque de prédation par la Grande Oie des neiges varie en fonction de différents éléments des paysages agricoles visités par les oies, mais aussi de quantifier cette variation selon différentes contraintes énergétiques et temporelles durant leurs haltes migratoires. Ceci afin de voir si le paysage de la peur pourrait être utiliser comme outil de gestion. À ce titre, je vise à mesurer l’effet du type de cultures, de la nature de l’élément paysager, de la distance de celui-ci et du niveau de compétition intraspécifique au sein des sites d’alimentation et ce, durant les deux migrations, sur l’utilisation des habitats et le budget d’activité des oies. Je pose que les oies prendront plus de risques si les contraintes temporelles sont fortes, de même que si elles se nourrissent dans une parcelle alimentaire de haute qualité et si elles subissent une plus forte de compétition. Pour ce faire, j’ai parcouru les Basses-Terres-du-Saint-Laurent de Salaberry-de-Valleyfield jusqu’à l’Islet lors des printemps 2014 et 2015 et de l’automne 2014. J’ai ainsi repéré et observé 141 groupes d’oies exploitant des terres agricoles pour lesquels j’ai noté la position des individus dans les champs et mesuré leur taux de vigilance, de même que noté divers facteurs qui pourraient affecter ces deux comportements, dont le type de cultures exploitées et le fait d’être ou non au sein d’une zone où la chasse est permise. Au printemps, le taux de vigilance des oies était, plus élevé dans les cultures de maïs, plus bas si la densité locale d’oies augmentait et plus bas dans les sanctuaires (i.e., en absence de chasse). Alors qu’à l’automne, le taux de vigilance était, plus élevé à proximité d’une route ou d’un fossé et plus élevé en bordure du groupe. Au printemps, la distance aux éléments du paysage potentiellement dangereux était, plus grande face à une bordure de forêt et plus faible face à la route. La distance était plus petite dans les cultures de maïs, plus élevée dans le foin et plus faible dans les sanctuaires. À l’automne, les effets des différents éléments étaient semblables à ceux du printemps. La distance était plus grande si la taille du groupe augmentait et plus petite dans les sanctuaires. De plus, les oies semblaient montrer un évitement des bordures forestières alors que les autres éléments du paysage étudiés ne semblent pas être sélectionnés ou évités. Les oies subissent des contraintes différentes au printemps et à l’automne. Ces contraintes semblent moduler la prise en compte du risque de prédation entre les saisons. En effet, les oies semblent privilégier l’alimentation au détriment de la prise de risques au printemps, une décision probablement liée à la reproduction dont le succès dépend d’une arrivée relativement hâtive sur les aires de nidification arctiques et donc, des réserves énergétiques accumulées sur les haltes migratoires. En opposition, les oies semblent prendre davantage conscience du risque de prédation dans leur quête alimentaire à l’automne, ce qui pourrait être lié au fait qu’elles sont accompagnées de leurs jeunes et à une contrainte énergétique et temporelle plus faible qu’au printemps. En bref, les oies semblent subir les effets de la peur reliée à la chasse. Mes résultats semblent indiquer que le paysage de la peur pourrait être utilisé dans les stratégies de gestion. Par exemple, en instaurant des haies brise-vent dans les secteurs où le risque de dommages agricoles est élevé, le risque de prédation perçu par les oies y serait plus élevé et pourrait ainsi diminuer l’utilisation de ces secteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré l'augmentation constante de l'efficacité des cellules photovoltaïques multi-jonctions destinées au photovoltaïque concentré, des pertes de performances subsistent à haute concentration solaire. Elles sont principalement causées par un ombrage excessif dû aux métallisations ou par effet Joule à cause de la résistance série. Une des solutions à ce problème est de reporter le contact métallique en face avant sur la face arrière grâce à des vias métallisés et isolés électriquement. Avec cette architecture, les pertes dues à l'effet Joule et à l'ombrage seront limitées et des gains en efficacité sont attendus. Toutefois, l'intégration de vias sur des cellules photovoltaïques triple jonction favorise la recombinaison électron-trou en surface et peut provoquer une perte de performances de ces dispositifs. Ce mémoire présente les travaux de recherche effectués visant à étudier précisément cette problématique ainsi qu'à proposer des solutions pour limiter ces pertes. L'objectif est d'évaluer les pertes de performances de cellules photovoltaïques triple jonction suite à l'intégration de vias. Dans un second temps, l'objectif secondaire vise à limiter les pertes grâce à des traitements de passivation. Les résultats et solutions qu'apporte ce projet représentent une étape clé dans la réalisation de cette nouvelle architecture de contact électrique pour cellules photovoltaïques. En effet, les conclusions de ce projet de recherche permettent de valider la possibilité d'obtenir des gains en efficacité grâce à cette architecture. De plus, les procédés de microfabrication présentés dans ce projet de recherche proposent des solutions afin d'intégrer des vias sur ces hétérostructures tout en limitant les pertes en performances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'industrie du ciment est l'une des principales sources d'émission de dioxyde de carbone. L'industrie mondiale du ciment contribue à environ 7% des émissions de gaz à effet de serre dans l'atmosphère. Afin d'aborder les effets environnementaux associés à la fabrication de ciment exploitant en permanence les ressources naturelles, il est nécessaire de développer des liants alternatifs pour fabriquer du béton durable. Ainsi, de nombreux sous-produits industriels ont été utilisés pour remplacer partiellement le ciment dans le béton afin de générer plus d'économie et de durabilité. La performance d'un additif de ciment est dans la cinétique d'hydratation et de la synergie entre les additions et de ciment Portland. Dans ce projet, deux sous-produits industriels sont étudiés comme des matériaux cimentaires alternatifs: le résidu de silice amorphe (RSA) et les cendres des boues de désencrage. Le RSA est un sous-produit de la production de magnésium provenant de l'Alliance Magnésium des villes d'Asbestos et Thedford Mines, et les cendres des boues de désencrage est un sous-produit de la combustion des boues de désencrage, l'écorce et les résidus de bois dans le système à lit fluidisé de l'usine de Brompton située près de Sherbrooke, Québec, Canada. Récemment, les cendres des boues de désencrage ont été utilisées comme des matériaux cimentaires alternatifs. L'utilisation de ces cendres comme matériau cimentaire dans la fabrication du béton conduit à réduire la qualité des bétons. Ces problèmes sont causés par des produits d'hydratation perturbateurs des cendres volantes de la biomasse quand ces cendres sont partiellement mélangées avec du ciment dans la fabrication du béton. Le processus de pré-mouillage de la cendre de boue de désencrage avant la fabrication du béton réduit les produits d'hydratation perturbateurs et par conséquent les propriétés mécaniques du béton sont améliorées. Les approches pour étudier la cendre de boue de désencrage dans ce projet sont : 1) caractérisation de cette cendre volante régulière et pré-humidifiée, 2) l'étude de la performance du mortier et du béton incorporant cette cendre volante régulière et pré-humidifiée. Le RSA est un nouveau sous-produit industriel. La haute teneur en silice amorphe en RSA est un excellent potentiel en tant que matériau cimentaire dans le béton. Dans ce projet, l'évaluation des RSA comme matériaux cimentaires alternatifs compose trois étapes. Tout d'abord, la caractérisation par la détermination des propriétés minéralogiques, physiques et chimiques des RSA, ensuite, l'optimisation du taux de remplacement du ciment par le RSA dans le mortier, et enfin l'évaluation du RSA en remplacement partiel du ciment dans différents types de béton dans le système binaire et ternaire. Cette étude a révélé que le béton de haute performance (BHP) incorporant le RSA a montré des propriétés mécaniques et la durabilité, similaire du contrôle. Le RSA a amélioré les propriétés des mécaniques et la durabilité du béton ordinaire (BO). Le béton autoplaçant (BAP) incorporant le RSA est stable, homogène et a montré de bonnes propriétés mécaniques et la durabilité. Le RSA avait une bonne synergie en combinaison de liant ternaire avec d'autres matériaux cimentaires supplémentaires. Cette étude a montré que le RSA peut être utilisé comme nouveaux matériaux cimentaires dans le béton.