53 resultados para Écoulement instationnaire (Dynamique des fluides)--Modèles mathématiques
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
La place tenue par la statistique dans la société actuelle fait en sorte qu’il devient important de s’interroger sur l’enseignement de cette discipline. Or, son enseignement qui est inclus, du moins au niveau pré-universitaire, dans les cours de mathématiques pose un défi majeur dû au fait que les raisonnements statistiques se distinguent considérablement des raisonnements associés aux autres domaines des mathématiques scolaires. En statistique, nous sommes en présence d’un degré d’incertitude qui est en contraste avec les conclusions déterministes auxquelles les mathématiques scolaires nous ont trop souvent habitués. La statistique fournit des outils pour étudier, entre autres, des phénomènes aux données variables; au coeur de la statistique se trouve alors le concept de variabilité. Par ailleurs, bien que la statistique prenne de plus en plus de place dans les programmes scolaires, le concept de variabilité même est peu nommé dans les programmes. De plus, la formation à la statistique et à l’enseignement de cette discipline occupe une place peu importante dans les cursus universitaires de formation à l’enseignement. Puisque l’enseignement du concept de variabilité apparaît fondamental, car au coeur de la pensée statistique, on peut se demander quelles sont les connaissances des enseignants à ce sujet compte tenu justement du peu de formation des enseignants dans ce domaine et du peu d’explicitation qu’en font les programmes scolaires. Les recherches dans le domaine de l’enseignement de la statistique ont proliféré depuis la fin du siècle dernier. Certaines concernent le concept de variabilité, mais elles ont surtout été menées chez des élèves. Très peu se sont préoccupées de la façon dont les enseignants de mathématiques du secondaire prennent en compte le concept de variabilité. Nous avons donc entrepris de répondre de manière exploratoire à la question suivante: quelles sont les connaissances didactiques des enseignants en rapport avec le concept de variabilité compte tenu de leurs connaissances disciplinaires ? Pour répondre à cette question, nous avons d’abord entrepris de cerner le concept de variabilité en statistique à travers, d’une part, les travaux sur la discipline et, d’autre part, les recherches sur les élèves. Nous nous sommes concentrés sur deux dimensions du concept présentes dans le curriculum du secondaire au Québec. La première, la variabilité échantillonnale, est associée aux fluctuations d’échantillonnage qui apparaissent dans les différences entre les échantillons tirés d’une même population. La seconde, la variabilité des données, réfère à la dispersion des données statistiques. Ceci a constitué le cadre conceptuel permettant la réalisation d’une recherche qualitative de nature exploratoire. La recherche a été menée auprès de douze enseignants de mathématiques du secondaire. Dans un premier temps, les enseignants devaient répondre individuellement au premier volet du questionnaire mettant de l’avant des situations de résolution de problèmes statistiques dans lesquels le concept de variabilité intervient. Il s’en suivait, dans un deuxième temps, une entrevue où les enseignants étaient regroupés en dyade. La première partie de l’entrevue portait sur les réponses des enseignants à ce premier volet du questionnaire, et ce, afin de porter un regard sur les connaissances disciplinaires des enseignants sur le concept de variabilité. Par la suite, les enseignants devaient répondre au deuxième volet du questionnaire. À cette étape, des tâches didactiques reliées à la pratique enseignante, en lien avec les situations statistiques du premier volet du questionnaire, étaient proposées afin d’explorer, cette fois, les connaissances didactiques des enseignants sur le concept en question. La présente recherche identifie certaines conceptions et difficultés liées à l’étude du concept de variabilité et complète les recherches antérieures sur le sujet. Elle permet aussi de porter un regard sur l’enseignement de ce concept, notamment en indiquant et en documentant des pistes d’interventions possibles pour l’enseignant confronté à des raisonnements et à des réponses d’élèves. De plus, cette étude montre l’influence des connaissances disciplinaires des enseignants sur leurs connaissances didactiques et laisse aussi présager de l’insuffisance de celles-ci pour le développement des connaissances didactiques. De nos résultats émergent des considérations pour la formation de futurs enseignants et met en exergue l’importance de s’attarder aux connaissances disciplinaires et didactiques des enseignants.
Resumo:
Le service social d'aujourd'hui est confronté à de nouvelles réalités. Nous devons faire face quotidiennement à de nouvelles valeurs qui se heurtent à notre fonctionnement individuel et social. Il faut en arriver à pouvoir composer avec ces nouveaux éléments. Citons par exemple le rôle de la femme qui prend de plus en plus d'importance dans la structure sociale, les étudiants, les travailleurs et les assistés sociaux qui revendiquent leurs droits par des moyens de pressions de plus en plus convaincants, le couple qui ne vit plus exclusivement pour la procréation, l'avortement qui fait l'objet de prises de positions très controversées et enfin le système dans son entier qui est remis en question par certains. Le service social personnel qui agit à un niveau individuel d'intervention se doit de faire face à ces nouvelles réalités et de découvrir des méthodes de travail qui conviennent à cette situation. C'est dans ce contexte que nous entreprenons cette étude. Au Québec, le service social, comme la plupart des sciences sociales, possède un passé qui date de moins d'un siècle. Et dans ces différents domaines comme dans d'autres, nous subissons l'influence de nos voisins du sud. Depuis quelques années, on a tendance à identifier globalement le service social personnel à deux types d'approches: une première communément appelée l'approche traditionnelle à long terme et la seconde appelée l'approche court terme. Ces deux méthodes d'intervention constituaient le guide de référence de ce qu'on appelait le casework. Celui-ci est identifié au Québec par divers termes, soient ceux d'intervention clinique, d'intervention sociale individuelle ou encore de service social personnel. Ces différentes terminologies désignent l'activité du service social auprès des individus et des petits groupes. Si l'on considère le domaine de l'intervention clinique d'une façon plus approfondie, on constate que depuis quelques années, sous l'influence des sciences du comportement et des sciences sociales ainsi qu'à partir de l'expérience de la pratique du service social personnel, se sont développés de nouveaux modèles de pratique. Nous constatons que ces modèles sont peu connus au Québec. Les milieux universitaires commencent à s'y intéresser et les milieux de la pratique en subiront l'influence dans quelques années. Nous croyons qu'un approfondissement de ces modèles pourra vraisemblablement améliorer les méthodes d'action et par conséquent la qualité des services rendus s'y verra peut-être augmentée. Cette étude découle d'un besoin d'explorer le champ des connaissances de l'intervention clinique. Cette exploration pourra conséquemment être utile à ceux qui voudront bien s'en servir. Ce besoin d'améliorer l'état de nos connaissances en service social personnel ressort de certaines observations qui démontrent que plusieurs approches en intervention clinique sont peu connues. Afin de clarifier et d'améliorer notre connaissance théorique des modèles d'intervention clinique, nous procéderons à l'exploration de neuf de ceux-ci. Pour orienter notre observation, nous partirons de variables que nous définirons ultérieurement. Ces variables vont nous guider dans la cueillette des données et dans la présentation de modèles. Avant de présenter systématiquement les modèles, il y aura un chapitre sur la position du problème et un second sur la méthodologie employée. La partie centrale qui traite des approches sera suivie d'une étude comparative.
Resumo:
Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.
Resumo:
Le développement de la production d’énergie éolienne et son transport fait partie des orientations du gouvernement québécois depuis plusieurs années, autant en ce qui a trait aux domaines énergétiques que de développement durable. L’implantation de parcs éoliens issus des appels d’offres d’Hydro-Québec se heurte pourtant à un certain degré d’opposition de la part des collectivités qui accueillent les infrastructures. Cette opposition fait en sorte qu’un appui majoritaire ne peut être observé pour aucun des projets. L’hypothèse de l’essai est que l’évaluation des paysages, dans le cadre des études d’impacts de parcs éoliens, demeure inadéquate, d’où le manque d’acceptabilité sociale ou tout au moins un des facteurs le déterminant. La considération du paysage comme faisant partie d’un écosystème dynamique est ici le moyen envisagé pour améliorer son évaluation lors des études d’impacts de parcs éoliens. L’objectif général de l’essai est ainsi d’explorer le concept d’écosystème paysager et d’évaluer dans quelle mesure il pourrait être mieux cerné par les outils traditionnels d’évaluation des projets. Les concepts d’écologie du paysage et d’acceptabilité sociale sont circonscrits afin d’identifier leur degré d’intégration aux outils québécois d’évaluation et de gestion qui encadrent le développement éolien. Une identification des bouleversements de l’écosystème paysager, occasionnés par les parcs éoliens, démontre qu’aucun des outils gouvernementaux ne permet d’assurer adéquatement l’intégrité naturelle ou anthropique du paysage. Trois projets québécois, réalisés entre 2012 et 2016, servent pour l’évaluation de liens entre les impacts de bouleversements à l’écosystème paysager, considérés lors des études d’impact, et leur acceptabilité sociale. Les valeurs de critères d’analyse, en lien aux impacts de bouleversements à l’écosystème paysager, sont comparées aux valeurs d’indices d’acceptabilité sociale à travers les trois projets. Les résultats démontrent que 49 % des critères d’analyse permettent d’expliquer en partie l’acceptabilité sociale observée pour les projets étudiés. 74 % des liens observés entre les critères d’analyse et les indices d’acceptabilité mettent en relation un impact négatif minimal (ou un impact positif maximal) sur l’écosystème paysager avec une acceptabilité sociale maximale. En considérant les résultats observés lors de l’étude des projets de développement éolien, certaines recommandations destinées aux autorités gouvernementales peuvent être faites afin d’assurer l’intégration du concept d’écosystème paysager à l’élaboration de parcs éoliens par les promoteurs. Une priorisation de l’étude des critères d’analyse en lien aux impacts de bouleversement à l’écosystème paysager doit être faite, autant dans les outils d’évaluation et de gestion que lors des discussions entre autorités municipales et promoteurs. Une amélioration de la mesure de l’acceptabilité sociale des projets de parcs éoliens dans les collectivités affectées doit également être faite, un effort d’information supplémentaire de la part des promoteurs et un échantillonnage plus représentatif de la population pouvant mener à une mesure plus objective de l’acceptabilité sociale.
Resumo:
Dans les turbomachines, le bruit du volume tournant est considéré comme une source majeure d’inconfort. La connaissance et l’identification des sources de bruit du rotor sont primordiales pour la conception d’une machine silencieuse et énergétiquement plus efficace. Ce document examine la capacité à la fois de la décomposition orthogonale aux valeurs (POD) et la décomposition aux valeurs singulières (SVD) à identifier les zones sur la surface d’une source (pale de ventilateur) fixe ou en mouvement subsonique qui contribuent le plus à la puissance acoustique rayonnée. La méthode de calcul de la dynamique des fluides (CFD) du code source OpenFoam est utilisée comme une première étape pour évaluer le champ de pression à la surface de la pale en mouvement subsonique. Les fluctuations de ce champ de pression permettent d’estimer à la fois le bruit de charge et la puissance sonore qui est rayonnée par la pale basée sur l’analogie acoustique de Ffowcs Williams et Hawkings (FW&H). Dans une deuxième étape, le bruit de charge estimé est également utilisé tant pour les approches POD et SVD. On remarque que la puissance sonore reconstruite par les deux dernières approches en se fondant uniquement sur les modes acoustiques les plus importants est similaire à celle prédite par l’analogie de FW&H. De plus, les modes les plus rayonnants estimés par la méthode SVD sont projetés sur la surface de la pale, mettant ainsi en évidence leurs emplacements. Il est alors prévu que cette identification soit utilisée comme guide pour l’ingénieur dans la conception d’une roue moins bruyante.
Resumo:
Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
Resumo:
La présente étude, de type métalexicographique, s'insère dans une perspective de recherche visant à dresser le bilan de la pratique lexicographique réservée aux noms d'espèces naturelles dans les dictionnaires usuels du français. Elle porte sur le traitement définitoire de tous les noms de plantes herbacées répertoriés dans le Petit Robert (édition électronique 1996). Son objectif principal est de décrire très précisément la pratique définitoire en cause. Nous commençons par passer rapidement en revue les différents procédés définitoires illustrés par notre corpus, avant de procéder à l'analyse détaillée du procédé le plus exploité, celui de la définition par inclusion. Notre méthode d'analyse est basée sur la segmentation et l'examen comparatif des différentes composantes sémantiques et formelles présentes dans les définitions par inclusion de notre corpus. Elle permet non seulement de mieux connaître la pratique du Petit Robert , mais aussi d'en extraire un certain savoir-faire. Nous étudions quatre grandes catégories d'éléments descriptifs bien représentées dans notre corpus: les éléments de classification, les éléments de localisation, les éléments de valorisation ainsi que les éléments de morphologie en lien avec ces derniers. Nous donnons, de la métalangue utilisée et des principaux modèles de description exploités, un portrait relativement précis qui pourra alimenter la réflexion des lexicographes et autres linguistes qui s'intéressent à la description des noms d'espèces naturelles en général et des noms de plantes en particulier.
Resumo:
Cette recherche porte sur la proposition d’une tâche d’évaluation en situation authentique et de sa grille d’évaluation formative dans le réseau collégial et des défis qu’elle soulève en regard de sa pertinence dans la discipline des mathématiques. Plus précisément, les difficultés posées par l’évaluation en général avec l’implantation de l’approche par compétences (APC) seront abordées. Une proposition d’une nouvelle approche sera faite dans le but de nous assurer d’une cohérence entre les évaluations proposées aux étudiantes et étudiants du 2e cycle du secondaire et la 1ère session au collégial. Nous allons également proposer des situations problématiques qui permettent à l’étudiante et l’étudiant de mobiliser ses ressources dans le cadre du cours Calcul Différentiel.
Resumo:
Bloom (1968) et Keller (1968) élaborèrent presque simultanément leur modèle d'organisation de l'enseignement. Ces modèles, la pédagogie de la maîtrise (mastery learning) et le système d'enseignement personnalisé (personalized system of instruction), quoique s'appuyant sur des contextes théoriques différents, possèdent plusieurs caractéristiques communes et fournissent un traitement pédagogique différencié selon le rendement démontré par l'élève. Les recherches entreprises sur les deux modèles, depuis la fin des années soixante, peuvent être divisées en deux courants de recherches. Un de ces courants évalue l'influence globale des modèles sur des variables comme le rendement scolaire, le degré de rétention de l'apprentissage, l'intérêt envers le contenu pédagogique, le concept de soi, le temps consacré à l'apprentissage, etc. Les premiers résultats des écrits expérimentaux de ce courant de recherche semblent convergés. Kulik, Jaska et Kulik (1978), dans une recension des écrits expérimentaux sur le système d'enseignement personnalisé appliqué au niveau collégial et universitaire, concluent que l'application de ce système entraine une amélioration du rendement scolaire et du niveau de rétention de l'apprentissage. Block et Burns (1976) parviennent à des conclusions semblables dans leur recension des écrits expérimentaux sur l'utilisation des deux modèles du niveau élémentaire au niveau universitaire. Un autre courant de recherche s'est appliqué à isoler l'effet spécifique des différentes composantes des modèles sur le rendement scolaire (Block et Burns, 1976; Kulik, Jaska et Kulik, 1978). L'effet spécifique des différentes composantes des modèles sur d'autres variables comme le temps consacré à l'apprentissage ou l'intérêt pour le contenu pédagogique n'a pas été, à notre connaissance, étudié jusqu'ici. Cette étude s'inscrit dans ces deux courants de recherche. Elle s'intéresse principalement à l'influence globale d'un ensemble de caractéristiques des deux modèles sur le rendement scolaire d'élèves en difficulté d'apprentissage de niveau primaire, ainsi qu'à l'effet d'une de ces caractéristiques sur le temps requis par ces élèves pour maîtriser leur apprentissage.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.