681 resultados para Transfert de chaleur
Resumo:
Méthodologie: Recherche qualitative d’approche heuristique
Resumo:
Cette recherche vise à étudier l’impact d’interventions réalisées par les parents dans l’unité néonatale de soins intensifs. Plus spécifiquement, le premier objectif est de documenter les effets différentiels de la Méthode Mère Kangourou « MMK » accompagnée ou non du Massage en incubateur «MI » ou du Massage en Position Kangourou « MPK » et des Soins Traditionnels «ST » accompagnés ou non du massage dans l’incubateur sur la croissance physique mesurée par le poids, la taille et le périmètre crânien pendant une période de 5 et 15 jours dans l’unité néonatale et l’impact à 40 semaines d’âge gestationnel. Le second objectif est de comparer, chez des enfants qui bénéficient de la « MMK » la valeur ajoutée du « MPK » ou du «MI » sur le neuro-développement à 6 et 12 mois d’âge corrigé de l’enfant. Un échantillon total de 198 enfants et leur famille a été recruté de la façon suivante dans trois hôpitaux de Bogota. Dans chaque hôpital, 66 sujets ont été répartis aléatoirement à deux conditions. Ces hôpitaux ont été choisis afin de tester les effets de diverses conditions expérimentales et de diminuer les bais de sélection. Dans chaque hôpital, deux techniques ont été assignées aléatoirement. Il s’agit, dans le premier, de la « MMK & MPK » vs « MMK & MI ». Dans le second, « MMK sans massage » vs « MMK & MI ». Dans le troisième, « MI » a été comparé aux « ST » ce qui implique une absence de contact physique continu des bébés avec leurs parents. Les résultats rapportés dans le premier article sont à l’effet que, dans le premier hôpital, il y a un effet compensatoire de l’intervention « MMK & MPK » sur la perte physiologique du poids de l’enfant prématuré dans les 15 premiers jours de vie avec un impact sur le poids à 40 semaines d’âge gestationnel, sur la durée du portage kangourou et sur la durée d’hospitalisation totale. Aucun effet sur le périmètre crânien ou la taille n’est apparu. Dans le deuxième hôpital, aucune différence significative n’est rapportée pour le poids sauf quand l’intervention est commencée après le 10ième jours de vie alors que l’enfant « MPK» semble grossir mieux que le «MMK avec MI». Finalement, dans le troisième hôpital il n’y a aucun effet du massage sur les variables anthropométriques, le groupe avec MI grossissant moins vite avec un léger impact sur le poids à 40 semaines. Cela pourrait être dû à la perte de chaleur due à l’ouverture de l’incubateur quand l’enfant est très immature. Dans le second article, les 66 enfants de l’hôpital sont répartis aléatoirement dans le groupe « MMK & MPK» vs le groupe « MMK & MI», ont complété, à 6 et 12 mois d’âge corrigé, un test de neuro-développement, le Griffiths. Les résultats à 6 mois ne montrent aucune différence entre les 2 interventions, mais a 12 mois le IQ semble dépendant du nombre de jours d’hospitalisation de l’enfant, cette durée d’hospitalisation correspond au temps que met l’enfant à se stabiliser physiquement et correspond également au temps que mettent la mère et l’enfant à s’adapter à la méthode kangourou. Une fois, l’adaptation kangourou réussie, la dyade mère enfant sort avec l’enfant toujours en position kangourou. Le temps d’hospitalisation correspond au temps que met l’enfant à être éligible à l’apprentissage de la MMK par la mère. À 12 mois les deux groupes montrent des résultats équivalents, mais des différences positives sont apparues pour le groupe « MMK & MPK» dans les sous échelle Coordination Oculo Manuelle et Audition et Langage du test Griffiths. Dans l’ensemble, les résultats suggèrent que la pratique des deux interventions non traditionnelles peut contribuer à une meilleure croissance physique dans nos cohortes. Le gain de poids du bébé, notamment, est affecté par l’intervention MPK (Hôpital 1) ou sans l’ajout du Massage (Hôpital 2). Par ailleurs, le massage en incubateur n’a pas de différence significative en comparaison aux soins traditionnels, ces interventions ont toutefois un impact mineur (tendances) sur le neuro développement à 6 et 12 mois d’âge corrigé dans cette étude.
Resumo:
En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.
Resumo:
Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.
Resumo:
Les méthodes de design et de construction des routes développés dans le sud canadien ont maintenant besoin d’être adaptés aux environnements nordiques du pays afin de prévenir le dégel dramatique du pergélisol lors de la construction d’une nouvelle route. De plus, le réchauffement climatique occasionne présentement d’importants problèmes de stabilité des sols dans le nord canadien. Ces facteurs causent des pertes importantes au niveau des capacités fonctionnelles et structurales de l’Alaska Highway au Yukon sur un segment de plus de 200 km situé entre le village de Destruction Bay et la frontière de l’Alaska. Afin de trouver des solutions rentables à long terme, le ministère du transport du Yukon (en collaboration avec le Federal Highway Administration du gouvernement américain, Transports Canada, l’Université Laval, l’Université de Montréal et l’Alaska University transportation Center) a mis en place 12 sections d’essais de 50 mètres de longueur sur l’autoroute de l’Alaska près de Beaver Creek en 2008. Ces différentes sections d’essais ont été conçues pour évaluer une ou plusieurs méthodes combinées de stabilisation thermique telles que le drain thermique, le remblai à convection d’air, le pare-neige / pare-soleil, le remblai couvert de matières organiques, les drains longitudinaux, le déblaiement de la neige sur les pentes et la surface réfléchissante. Les objectifs spécifiques de la recherche sont 1) d’établir les régimes thermiques et les flux de chaleur dans chacune des sections pour les 3 premières années de fonctionnement ; 2) de documenter les facteurs pouvant favoriser ou nuire à l’efficacité des systèmes de protection et ; 3) de déterminer le rapport coûts/bénéfices à long terme pour chacune des techniques utilisées. Pour ce faire, une nouvelle méthode d’analyse, basée sur la mesure de flux d’extraction de chaleur Hx et d’induction Hi à l’interface entre le remblai et le sol naturel, a été utilisée dans cette étude. Certaines techniques de protection du pergélisol démontrent un bon potentiel durant leurs 3 premières années de fonctionnement. C’est le cas pour le remblai à convection d’air non-couvert, le remblai à convection d’air pleine largeur, les drains longitudinaux, le pare-soleil / pare-neige et la surface réfléchissante. Malheureusement, des problèmes dans l’installation des drains thermiques ont empêché une évaluation complète de leur efficacité.
Resumo:
Le procédé Bayer est cyclique et il permet d'extraire les hydrates d'alumine, contenu dans le minerai de bauxite. L'alumine est la matière première nécessaire pour la production de l'aluminium métallique par le procédé d'électrolyse. La solubilisation des hydrates d'alumine est effectuée dans une solution d'hydroxyde de sodium concentrée, liqueur Bayer, à haute température et pression. Il existe deux types de procédé : un procédé dit à basse température (150ÀC) et un procédé dit haute température (250ÀC). Selon la température utilisée, certaines impuretés présentes dans la bauxite vont être solubilisées comme par exemple la silice, le fer ou le titane. Comme le procédé est basé sur la solubilisation puis sur la précipitation des hydrates d'alumine, la solution est chauffée puis refroidie par une série d'échangeurs de chaleur. Ces changements de température impliquent des variations dans les conditions de saturation et sursaturation ce qui va conséquemment causer la formation de tartre dans le procédé. Selon la température du procédé utilisé, la composition chimique du tartre formé peut être différente. Dans le but d'inhiber partiellement ou totalement la cristallisation de la gibbsite, ou hydrate d'alumine, sur les surfaces métalliques, la compréhension des paramètres influençant sa formation est nécessaire. L'un des moyens de réduire ou d'inhiber la formation du tartre est de modifier les énergies de surface entre les surfaces métalliques et la solution de liqueur Bayer. Pour ce faire, des métaux ayant des propriétés différentes seront étudiés en entartrage et des composés organiques seront ajoutées à la solution d'hydroxyde de sodium afin de modifier l'interface entre ces métaux et la solution. L'influence des hydrates d'alumine et des différents composés organiques sur les métaux sera déterminer [i.e. déterminée] par des mesures d'isothermes d'adsorption, de potentiels zêta et d'angles de contact, dans le but d'établir une corrélation entre l'interface métal/solution et les temps de nucléation mesurés en entartrage. Un deuxième volet consiste en la fabrication d'un montage en laboratoire permettant d'effectuer la formation reproductible du tartre de freudenbergite. La freudenbergite est un tartre à base de titane qui se forme dans le procédé à haute température. Cette étude démontre que la formation du tartre dans le procédé Bayer est un phénomène de formation de cristaux de gibbsite en solution qui vont adhérer aux défauts de surfaces des surfaces métalliques. En ce sens, la rugosité de surface des métaux est le facteur déterminant pour la formation du tartre dans le procédé Bayer. Des tests d'entartrage réalisés au laboratoire sur cinq métaux différents démontrent une corrélation évidente entre la rugosité de surface, mesurée par microscope à force atomique, et les temps de nucléation obtenus en entartrage. Les mesures d'interactions interfaciales des aluminates de sodium sur les métaux étudiés, en présence ou non de composés organiques, ne permettent pas d'établir de corrélation avec les temps de nucléation obtenus en entartrage. Par contre, l'allongement de l'entartrage en présence de gluconate et de tartrate de sodium, des composés inhibiteurs de croissance des cristaux de gibbsite, confirme le phénomène de formation du tartre par des cristaux formés en solution. La croissance des cristaux de tartre étant partiellement inhibée, les temps de nucléation vont être allongés lors des tests d'entartrage. À l'inverse, l'EDTA favorise la formation de plusieurs cristaux en solution, ce qui diminue significativement la vitesse d'entartrage lorsqu'elle est ajoutée dans la liqueur Bayer. Afin de confirmer que la rugosité de surface est le facteur prédominant dans la formation du tartre dans le procédé Bayer, dans nos conditions de laboratoire, des tests d'entartrage sont effectués sur une surface d'or recouverte d'une monocouche d'alcane thiols. Ces tests démontrent que le changement de nature de la surface d'or ne permet pas de changer significativement le temps de nucléation de l'or dans nos conditions d'entartrage. Un montage expérimental comportant un four et quatre autoclaves, contrôlé par un système informatique a permis d'effectuer la formation de tartre de freudenbergite de façon reproductible au laboratoire.
Resumo:
La présente étude est une recherche qualitative de type exploratoire. Elle avait pour but de vérifier l'utilisation des connaissances biomédicales de deux groupes d'étudiantes infirmières de niveau collégial. L'échantillon était composé de 56 sujets : un groupe de 38 étudiantes en début de la deuxième année du programme de soins infirmiers et un groupe de 18 étudiantes de troisième année, en fin de programme. La capacité de référer aux connaissances biomédicales a été évaluée à l'aide d'une grille d'observation des réponses des sujets, à des questions proposées suite à la lecture d'un scénario portant sur une situation clinique. La grille d'observation est une adaptation d'un outil élaboré par Doris Carnevali (1984) portant sur le «self-monitoring of diagnostic reasoning behaviors». Quant au scénario, il fut construit en tenant compte des connaissances des étudiantes et en fonction des objectifs de cette recherche. Ces outils ont été validés auprès d'enseignantes du programme de soins infirmiers et d'étudiantes de première année dans ce programme et auprès d'une experte en démarche de soins infirmiers. Ils ont été aussi pré-expérimentés auprès d'un groupe de six étudiantes ayant terminé leur première année. Les données portant sur les réponses écrites des étudiantes à propos de l'identification de problèmes à traiter en collaboration, via un scénario, ont été traitées par une méthode d'analyse qualitative de contenu. Les résultats font l'objet d'une analyse exhaustive. Ils ont permis de ressortir les catégories reliées au raisonnement diagnostique et aux processus cognitifs et tendent à démontrer que les étudiantes en soins infirmiers utilisent leurs connaissances biomédicales lorsqu'elles ont à résoudre un problème de soins infirmiers à l'aide d'une histoire de cas fictive. Les résultats semblent prometteurs quant au transfert des connaissances biomédicales et de soins infirmiers (théoriques et pratiques) des étudiantes dans un contexte de résolution de problèmes. Ils incitent à revoir nos approches pédagogiques quant à l'enseignement théorique des problèmes de santé abordés dans le programme de soins infirmiers. Ils invitent aussi à réexaminer des attitudes des enseignantes face à l'utilisation de ces connaissances dans un contexte de soins direct à la clientèle. De plus, ils ouvrent des avenues intéressantes pour la poursuite de la recherche dans le domaine de l'enseignement et de l'intervention infirmière.
Resumo:
Abstract : The goal of this study was to determine whether providing videos for students to watch before class would be more effective than assigning readings. The study took place within a flipped classroom: a methodology designed to engage students in the initial construction of knowledge before class, freeing up classroom time for active learning pedagogies. Preparing for class by watching videos should require less of the students’ time than doing readings, and they should respond better to videos than to readings because these more closely mimic this generation’s interactions with information and media. Consequently, flipped classroom students provided with videos should perceive a lower workload, which could translate into more positive learning outcomes. From an instructor’s perspective, however, developing and organizing videos is extremely time consuming. Thus, a teacher giving consideration to flipping their class would likely want to know whether videos would lead to positive outcomes for their students before actually committing to developing these. However, no research to date was identified which has examined the question of whether flipped class videos would be more effective than readings. The hypotheses for the study were that videos would result in measurable learning gains for the students, and would lead to lower time demands and perceived workloads, as well as more positive attitudes. These were tested using a quasi-experimental design involving a convenience sample of two small college General Biology 1 courses taught by the same teacher. One group had videos to watch before class for the first 1/3 of the course (treatment; Class A), during which the other was assigned readings (control; Class B). Following this, both groups were provided with videos. Student scores were compared on pre-instruction and in-class quizzes, activities, four unit tests, and a final exam. Further, students completed a 44 item survey as well as a demographic questionnaire. Results suggest greater learning gains for students provided with videos. Certainly, students from Class B improved significantly when provided with videos, especially as compared to Class A, whose improvement over the same time span was marginal. However, conclusions based on these results are somewhat tentative, as Class A performed rather poorly on all summative assessments, and this could have driven the patterns observed, at least partially. From the surveys, Class B students reported that they spent more time preparing for class, were less likely to do the necessary preparations, and generally perceived their effort and workload levels to be higher. These factors were significant enough that they contributed to four students from Class B (10% of the class) dropping the course over the semester. In addition, students from both groups also reported more positive attitudes towards videos than readings, although they did not necessarily feel that videos were (or would be) a more effective study and learning tool. The results of this study suggest that any effort on the part of an instructor to prepare or organize videos as pre-class instructional tools would likely be well spent. However, even outside of the context of a flipped classroom, this study provides an indication that assigned readings can place heavy workload requirements on students, which should give cause for any instructor employing mandatory readings to reassess their approach. Finally, since both groups were statistically equivalent across all measured demographic variables, it appears that some of the observed disparities in assessment scores may have been driven by differences in group dynamics. Consequently, the suggestion is made that an instrument to measure classroom climate should be incorporated into any research design comparing two or more interacting groups of students, as group dynamics have the potential to play a key role in any outcomes.||Résumé : L'objectif de cette étude était de déterminer si fournir des vidéos aux étudiants avant une classe serait plus efficace comme méthode d’apprentissage individuel que de leur donner une liste de lectures à compléter. L'étude a eu lieu dans une classe renversée – une stratégie plus reconnu sous le nom de «classroom flipping» – ce qui ce trouve à être une méthodologie qui vise à obliger les élèves d’accomplir le transfert de connaissances initial avant la classe, en vue de libérer du temps de classe pour des activités pédagogiques plus approfondie. En théorie, pour les élèves, se préparer pour une classe renversé en regardant des vidéos devrait exiger moins de temps que d’être obligé à apprendre le matériel en lisant. En plus, présenter le matériel d’un cours avec des vidéos imite de plus près les genres d’interactions qu’on les étudiants de cette génération avec de l'information et les médias, ce qui devrait faciliter leur tâche. Par conséquent, les élèves d’une classe renversée fournies avec des vidéos devraient percevoir une charge de travail moins élevée, et ceci pourrait se traduire en bilans d'apprentissage plus positifs. Cependant, du point de vue du professeur, avoir à développer et organiser des vidéos se présente comme un gros défi, surtout en vue du temps et de l’effort qui sont requis. Ainsi, un enseignant qui songe à renversée sa classe voudrait probablement savoir si le fait d’offrir des vidéos mène à des résultats positifs avant de réellement s'engager dans le développement de ces derniers. Par contre, lors de l’écriture de ce texte, aucune étude n’a été identifié qui répond à cette question, et aucune publication compare la performance des étudiants lorsqu’ils ont des vidéos à regarder avec lorsqu’ils sont obligés de faire de la lecture pour se préparer. Alors, les hypothèses de l'étude étaient que des étudiants ayant accès à des vidéos démontreraient des gains d’apprentissages évidents, qu’ils apercevraient des requêtes de temps moins encombrantes et une charge de travail plus faible, et, en vue de ces derniers, que les étudiants auraient des attitudes plus positives envers le cours et le matériel. Les hypothèses ont été testés à l'aide d'un modèle quasi-expérimental, avec comme échantillon deux classes collégiales de Biologie générale 1, tout les deux enseignés par le même professeur. Un de ces groupes avaient accès à des vidéos pour se préparer pour chaque classe lors du premier tiers du cours, alors que l’autre groupe étaient obligé de faire de la lecture. Après le premier tiers du cours, ce qui fut 10 des 30 classes du semestre, les deux groupes ont été fournis avec des vidéos pour le restant du cours. Des notes ont été ramassées et comparées sur des mini-examens préparatoires avant et durant les classes, sur des activités complétées en classe, sur quatre examens en classe, et un examen final. En outre, les étudiants ont rempli un questionnaire composé de 44 items, ainsi qu’un autre questionnaire démographique. Les résultats de l’étude suggèrent qu’une décision d’offrir des vidéos aux élèves peut mener à des gains d'apprentissage plus élevés comparativement à l’option lecture. En particulier, les élèves du groupe initial de lecture se sont considérablement améliorées lorsqu'ils ont été fournis avec des vidéos, surtout par rapport au groupe initial de vidéos, dont l’amélioration durant la même période était marginale. Cependant, ces conclusions sont un peu incertaines, parce que la performance du groupe initial de vidéos était globalement médiocre, ce qui aurait pu mener aux résultats observés. Par contre, les résultats obtenus des questionnaires étaient moins incertains, et indiquent que les élèves qui se sont vues attribués des lectures passaient plus de temps pour préparer leurs classes, étaient plus aptes à ne pas faire les préparatifs nécessaires, et ont aperçus leurs niveaux d'efforts et leurs charges de travails comme étant plus élevés. Ces facteurs étaient suffisamment importants qu'ils ont contribué au fait que quatre étudiants du groupe de lecture, soit 10% de la classe, ont abandonnés le cours durant le premier tiers du semestre. Finalement, les élèves ont démontrés des attitudes plus positives envers les vidéos, bien qu'ils ne trouvaient pas nécessairement que ceux-ci étaient plus efficaces que les lectures lorsqu’ils voulaient étudier pour les examens. Basé sur ces résultats, il est possible de conclure que tout effort de la part d'un instructeur pour préparer ou organiser des vidéos pédagogiques serait probablement un bon investissement. En plus, et même en dehors du contexte d'une classe renversée, cette étude offre une indication qu’une stratégie pédagogique qui oblige les étudiants à faire beaucoup de lecture peut imposer des exigences et une charge de travail très élevée pour les étudiants, ce qui devrait donner cause à tout instructeur qui attribue des lectures à réévaluer leur approche. Enfin, puisque les deux groupes étaient équivalents d’un point de vue statistique sur toutes les mesures démographiques, il semble que certaines disparités entre les deux groupes dans les notes d'évaluation et d’examens peuvent possiblement avoir été entraînées par des différentes dynamiques dans chaque group. Par conséquent, il est suggéré que des mesures de relations entre étudiants et de dynamiques de groupes devraient être incorporé dans n’importe qu’elle recherche comparant deux ou plusieurs groupes d’étudiants, et surtout quand ces étudiants sont en interaction, parce-que en toute apparence les dynamiques de groupes ont le potentiel de jouer un rôle clé dans les résultats obtenus.
Resumo:
Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.
Resumo:
Résumé : Les ions hydronium (H3O + ) sont formés, à temps courts, dans les grappes ou le long des trajectoires de la radiolyse de l'eau par des rayonnements ionisants à faible transfert d’énergie linéaire (TEL) ou à TEL élevé. Cette formation in situ de H3O + rend la région des grappes/trajectoires du rayonnement temporairement plus acide que le milieu environnant. Bien que des preuves expérimentales de l’acidité d’une grappe aient déjà été signalées, il n'y a que des informations fragmentaires quant à son ampleur et sa dépendance en temps. Dans ce travail, nous déterminons les concentrations en H3O + et les valeurs de pH correspondantes en fonction du temps à partir des rendements de H3O + calculés à l’aide de simulations Monte Carlo de la chimie intervenant dans les trajectoires. Quatre ions incidents de différents TEL ont été sélectionnés et deux modèles de grappe/trajectoire ont été utilisés : 1) un modèle de grappe isolée "sphérique" (faible TEL) et 2) un modèle de trajectoire "cylindrique" (TEL élevé). Dans tous les cas étudiés, un effet de pH acide brusque transitoire, que nous appelons un effet de "pic acide", est observé immédiatement après l’irradiation. Cet effet ne semble pas avoir été exploré dans l'eau ou un milieu cellulaire soumis à un rayonnement ionisant, en particulier à haut TEL. À cet égard, ce travail soulève des questions sur les implications possibles de cet effet en radiobiologie, dont certaines sont évoquées brièvement. Nos calculs ont ensuite été étendus à l’étude de l'influence de la température, de 25 à 350 °C, sur la formation in situ d’ions H3O + et l’effet de pic acide qui intervient à temps courts lors de la radiolyse de l’eau à faible TEL. Les résultats montrent une augmentation marquée de la réponse de pic acide à hautes températures. Comme de nombreux processus intervenant dans le cœur d’un réacteur nucléaire refroidi à l'eau dépendent de façon critique du pH, la question ici est de savoir si ces fortes variations d’acidité, même si elles sont hautement localisées et transitoires, contribuent à la corrosion et l’endommagement des matériaux.
Resumo:
La problématique liée au bruit des motoneiges est un enjeu important dans l’industrie des véhicules récréatifs. Il est donc nécessaire de trouver de nouvelles solutions technologiques qui permettront de concevoir des motoneiges plus silencieuses. La suspension arrière est un élément contribuant aux transferts des vibrations du véhicule qui, par la suite, peuvent créer un rayonnement sonore. Pour identifier les chemins de transfert vibroacoustique une méthodologie type TPA (Transfer Path Analysis) et OTPA (Operational Transfer Path Analysis) est mise en place. Cela consiste à utiliser des procédés expérimentaux pour obtenir une modélisation matricielle vibroacoustique de la suspension. Les résultats obtenus seront ensuite validés expérimentalement et permettront de proposer des solutions technologiques qui pourront être intégrées sur les nouveaux prototypes de motoneige.
Resumo:
La compréhension de l'aérothermique d'un véhicule durant sa phase de développement est une question essentielle afin d'assurer, d'une part, un bon refroidissement et une bonne efficacité de ses composants et d'autre part de réduire la force de traînée et évidement le rejet des gaz à effet de serre ou la consommation d'essence. Cette thèse porte sur la simulation numérique et la validation expérimentale de l'aérothermique d'un véhicule à trois roues dont deux, en avant et une roue motrice en arrière. La simulation numérique est basée sur la résolution des équations de conservation de la masse, de la quantité de mouvement et de l'énergie en utilisant l'approche RANS (Reynolds-Averaged Navier-Stokes). Le rayonnement thermique est modélisé grâce à la méthode S2S (Surface to Surface) qui suppose que le milieu séparant les deux surfaces rayonnantes, ici de l'air, ne participe pas au processus du rayonnement. Les radiateurs sont considérés comme des milieux poreux orthotropes où la perte de pression est calculée en fonction de leurs propriétés inertielle et visqueuse; leur dissipation thermique est modélisée par la méthode Dual flow. Une première validation de l'aérodynamique est faite grâce à des essais en soufflerie. Ensuite, une deuxième validation de la thermique est faite grâce à des essais routiers. Un deuxième objectif de la thèse est consacré à la simulation numérique de l'aérodynamique en régime transitoire du véhicule. La simulation est faite à l'aide de l'approche Detached eddy simulation (DES). Une validation expérimentale est faite à partir d'étude en soufflerie grâce à des mesures locales de vitesse à l'aide de sondes cobra.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
Resumo:
La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.