41 resultados para les modèles génératifs
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Résumé: Ce mémoire de maîtrise est une étude des probabilités d’interactions (sections efficaces) des électrons de basse énergie avec une molécule d’intérêt biologique. Cette molécule est le tétrahydrofurane (THF) qui est un bon modèle de la molécule constituant la colonne vertébrale de l’ADN; le désoxyribose. Étant donné la grande quantité d’électrons secondaires libérés lors du passage des radiations à travers la matière biologique et sachant que ceux-ci déposent la majorité de l’énergie, l’étude de leurs interactions avec les molécules constituant l’ADN devient rapidement d’une grande importance. Les mesures de sections efficaces sont faites à l’aide d’un spectromètre à haute résolution de pertes d’énergie de l’électron. Les spectres de pertes d’énergie de l’électron obtenus de cet appareil permettent de calculer les valeurs de sections efficaces pour chaque vibration en fonction de l’énergie incidente de l’électron. L’article présenté dans ce mémoire traite de ces mesures et des résultats. En effet, il présente et explique en détail les conditions expérimentales, il décrit la méthode de déconvolution qui est utilisée pour obtenir les valeurs de sections efficaces et il présente et discute des 4 résonances observées dans la dépendance en énergie des sections efficaces. En effet, cette étude a permis de localiser en énergie 4 résonances et celles-ci ont toutes été confirmées par des recherches expérimentales et théoriques antérieures sur le sujet des collisions électrons lents-THF. En outre, jamais ces résonances n’avaient été observées simultanément dans une même étude et jamais la résonance trouvée à basse énergie n’avait été observée avec autant d’intensité que cette présente étude. Cette étude a donc permis de raffiner notre compréhension fondamentale des processus résonants impliqués lors de collisions d’électrons secondaires avec le THF. Les valeurs de sections efficaces sont, quant à elles, très prisées par les théoriciens et sont nécessaires pour les simulations Monte Carlo pour prédire, par exemple, le nombre d’ions formées après le passage des radiations. Ces valeurs pourront justement être utilisées dans les modèles de distribution et dépôt d’énergie au niveau nanoscopique dans les milieux biologiques et ceux-ci pourront éventuellement améliorer l’efficacité des modalités radiothérapeutiques.
Resumo:
Cette étude identifie les représentations du rôle professionnel d'éducatrice en éducation psychomotrice. Le rôle professionnel d'éducatrice se définit comme un processus de prise de décisions concernant l'enfant, l'organisation de l'environnement et le jeu. Les représentations sont constituées de deux systèmes : les croyances et les processus cognitifs. Trois étudiantes respectivement inscrites en première, en troisième et en cinquième session ont participé à une entrevue semi-dirigée portant sur le rôle professionnel d'éducatrice en éducation psychomotrice. Les modèles de rôles maternel, thérapeutique et instructionnel (Katz, 1970) sont à la base de l'analyse des croyances alors que le diagnostic, la conception, la planification et le guide identifient les quatre processus cognitifs du rôle professionnel d'éducatrice (Saracho, 1988). Une analyse qualitative des verbatims des entrevues a permis d'isoler les croyances et les processus cognitifs. Par la suite, les représentations du rôle professionnel d'éducatrice se sont précisées de la présence des modèles de rôles dans l'utilisation des processus cognitifs. Selon cette étude, les quatre processus cognitifs du rôle professionnel apparaissent chez chacun des sujets. Les sujets prennent principalement des décisions concernant l'enfant. Par contre, les décisions touchant l'organisation de l'environnement et le jeu sont peu présentes. Par ailleurs, les trois sujets appliquent les modèles de rôles maternel, instructionnel et thérapeutique dans chaque processus cognitif du rôle professionnel d'éducatrice. Toutefois, de façon générale, les sujets tendent vers l'orientation intellectuelle du modèle de rôle instructionnel dans le diagnostic, la conception et la planification. De plus, tous les sujets présentent l'orientation intellectuelle du modèle instructionnel dans le guide. Cependant, l'orientation académique du modèle instructionnel apparaît dans le diagnostic, la conception et la planification des sujets de troisième et de cinquième session. Cette étude ouvre la voie à la recherche sur l'enseignement et l'apprentissage des processus cognitifs et des croyances compatibles avec le rôle professionnel d'éducatrice. De plus, ces représentations devenant explicites permettent aux formatrices d'éducatrice de porter une évaluation diagnostique autant en formation initiale qu'en formation continue. Cette recherche contribue à définir un «corpus» de savoirs propre aux éducatrices en Techniques d'éducation en services de garde dans le cadre d'une pédagogie basée sur le cognitivisme.
Resumo:
Une hypothèse souvent faite dans les modèles micro-économique est que les différentes firmes dans une industrie particulière offrent toutes un produit homogène. Les consommateurs ne pouvant pas distinguer le produit des différentes firmes, un prix unique s'établit pour ce marché compétitif. Mais dans la réalité, les produits de firmes différentes ne sont quasi jamais des substituts parfaits. Les biens sont souvent différenciés par une ou plusieurs caractéristiques. Une firme ne peut donc pas produire un bien sans considérer les préférences des consommateurs et les produits qui existent déjà sur ce marché. La décision de ne pas produire ou de produire et les caractéristiques que le produit possédera, s'il est produit, est l'objet d'un vrai choix économique de la part des firmes. Lorsque dans un marché des biens sont produits avec plusieurs caractéristiques différentes, on parle alors de biens différenciés. Deux types de différenciation existent : la différenciation horizontale et la différenciation verticale. D'une part, pour la différenciation verticale, tous les consommateurs sont d'accord pour établir le même ordre de préférence sur l'ensemble des caractéristiques pour un prix égal, il y a un ordre naturel sur l'espace des caractéristiques. À ce titre, un exemple souvent utilisé est la qualité. Un consommateur préférera toujours le bien de meilleure qualité. Par contre, le revenu du consommateur et le prix détermineront son choix final. D'autre part, en ce qui concerne la différenciation horizontale, on note qu'en présence d'un ensemble de caractéristiques données et à prix égal le choix optimal d'un consommateur dépendra de son ordre de préférence sur l'ensemble des caractéristiques du produit et cet ordre diffère d'un consommateur à un autre. Pour mieux comprendre la différence entre les deux types de différenciation, nous allons prendre un exemple commun : deux consommateurs se voient offrir la possibilité d'obtenir une voiture gratuitement. Ils ont le choix entre deux voitures qui diffèrent seulement sur la couleur. Dans le cas de différenciation verticale, les deux consommateurs feront le même choix; dans le cas de différenciation horizontale, le choix de chacun des consommateurs ne sera pas nécessairement le même, le choix dépendra de leur préférence respective sur la couleur…
Resumo:
Ce mémoire étudie de façon empirique l'effet des dépenses publiques en biens et services sur le PIB à court et à long terme. Le sujet nous semble particulièrement pertinent dans le contexte de restrictions budgétaires qui est le nôtre. Dans une première étape, nous estimons les relations à court terme entre les dépenses publiques en biens et services G, le produit intérieur brut PIB et la masse monétaire M en mode bi-varié. Un modèle VAR en différence et des données trimestrielles pour la période 1947-1994 et les sous-périodes de change fixe (1947-1970) et de change flexible (1970-1994) sont utilisées. Nos résultats semblent confirmer la validité du modèle IS-LM-BP en économie ouverte avec mobilité des capitaux. À ce sujet, la distinction change fixe/change flexible s'est avérée cruciale. Les modèles de cycles réels ne peuvent expliquer nos résultats de manière satisfaisante, en particulier en ce qui a trait au rôle de la monnaie et au régime de taux de change. Dans une deuxième étape, nous estimons les relations à long terme entre les variables G et PIB au moyen de la procédure de cointégration proposée par Juselius et Johansen (1990). Nos résultats révèlent l'existence de relations stables à long terme entre les variables G et PIB, ce qui ouvre d'intéressantes perspectives. Entre autres, nos travaux confirment de façon empirique la loi de Wagner. De plus, le processus de socialisation de la fonction de production envisagée par Wagner, Schumpeter et d'autres semble toujours être à l'oeuvre.
Resumo:
Depuis quelques années, nous connaissons une recrudescence du nombre d'entreprises d'économie sociale qui touchent différents secteurs mais surtout ceux délaissés par l'entreprise marchande jugés non solvables. Le développement de cette nouvelle économie sociale, issue d'une part de divers mouvements sociaux qui revendiquent leur part dans la répartition de la richesse et d'autre part par la crise de l'emploi qui ne finit plus de faire des laissés pour compte, ne se fait pas sans heurts et non plus sans soulever un certain nombre de questionnements par rapport au modèle traditionnel de développement. Ces questionnements toucheront essentiellement la place que l'on veut donner aux acteurs qui colorent le développement d'une société dans un souci d'une plus large démocratie: voulons-nous une société inclusive de tous les acteurs qui la forme ou allons-nous continuer à faire perdurer le modèle de développement favorisant l'exclusion et la marginalisation des membres qui ne font pas partie de l'économie marchande? Si chacun a un rôle à jouer dans la redéfinition des rapports d'échanges entre tous les acteurs, nous conviendrons que l'État, par son rôle de redistribution de la richesse et de régulation, doit certainement se positionner quant à la place que chacun devra occuper à l'intérieur de la société. Dans cette perspective, nous nous attarderons sur le rôle de l'État dans la transformation de ces rapports sociaux. Afin de tenter de comprendre cet intérêt que porte l'État pour cette nouvelle économie sociale, nous tracerons dans un premier temps, un historique des mouvements sociaux et économiques à l'origine du développement des entreprises d'économie sociale. Nous distinguerons les deux types d'économie sociale qu'a connu le Québec: l'ancienne et la nouvelle. Par ailleurs, considérant que l'économie sociale n'est pas un modèle de développement (Lévesque, 1999) mais qu'elle s'insère dans les modèles reconnus de développement d'après-guerre (Lévesque et Mendell, 1999) tels qu'on les connaît: le modèle social-démocrate traditionnel, le modèle néo-libéral, le modèle de la démocratie économique et sociale, nous verrons lequel de ces modèles s'inscrit le mieux dans une perspective d'inclusion de tous les acteurs de la société, y compris ceux et celles qui ne font pas partie de l'économie marchande. Par ailleurs, nous verrons, par quelques exemples que, par le passé, ce soutien intéressé de l'État s'est soldé par une récupération de ces initiatives de la société civile pour les institutionnaliser à bon compte. Selon que l'on considère qu'il y a eu plus d'avantages que d'inconvénients à cette institutionnalisation, nous verrons s'il y a lieu de se réjouir de la recrudescence de cette économie sociale ou, au contraire, se méfier de cette bienveillance de l'État à l'égard de cette nouvelle économie sociale. Enfin, nous verrons que des conditions favorables à l'émergence de projets d'économie sont essentielles dans la reconnaissance de l'État. On parle ici d'un apport technique et financier pour soutenir la réalisation d'entreprises d'économie sociale, mais également, à une plus grande échelle, un refaçonnement des politiques qui visent un travail de recomposition du tissu social grandement touché dans la foulée des récentes réformes sociales.
Resumo:
Introduction : Les données probantes reconnaissent que les exercices constituent une modalité curative pour traiter la lombalgie non-aiguë. Or, les effets sont modestes, ce qui amène la communauté scientifique à se questionner, entre autre, sur le niveau d’adhésion des patients à leur programme d’exercices à domicile. Cette étude poursuit deux objectifs : (1) explorer l’association entre l’adhésion à un programme d’exercices à domicile et les variables de résultats (primaires : douleur, incapacité ; secondaires : les changements globaux, le sentiment d’efficacité personnelle, la détresse psychologique), (2) explorer l’association entre l’adhésion à ce programme et les principales variables biopsychosociales sur lesquelles le thérapeute peut agir, en utilisant un cadre théorique explicatif incluant : le modèle de peur-évitement, le modèle du sens commun et le concept de l’alliance de travail. Méthode : Une cohorte longitudinale de volontaires de 48 adultes ayant une lombalgie (> 4 semaines) a été recrutée. L’adhésion au programme d’exercices à domicile et les autres facteurs biopsychosociaux ont été mesurés par des questionnaires auto-administrés au début, après quatre semaines, à la fin des huit semaines de traitement et six mois plus tard. Des analyses univariées et multivariées ont été menées. Résultats : Pour le premier objectif, les modèles linéaires mixtes démontrent que l’adhésion est seulement associée aux variables de résultats secondaires. Pour le second objectif, 50 % de la variance de l’adhésion (ICC = 50,00, p < 0,001) a été expliquée par sept variables, les changements globaux ayant la plus forte association avec l’adhésion. Les changements globaux, à leur tour, ont été expliqués par cinq variables (ICC = 22,3, p = 0,028), les représentations ayant la plus forte association. Les représentations ont été expliquées par cinq variables pouvant être incluses dans le modèle peur-évitement (ICC = 49,2, p < 0,001). L’alliance de travail n’était pas associée à l’adhésion. Conclusion : Les variables de résultats secondaires devraient s’ajouter aux variables de résultats primaires dans les études portant sur l’adhésion aux exercices. Le modèle du sens commun a été utile pour expliquer les variables associées à l’adhésion. Le modèle de peur-évitement a été davantage utile pour expliquer les variables associées aux représentations qui sont au cœur du modèle du sens commun.
Resumo:
Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
L'objectif principal de ce projet était de comprendre et d'identifier les paramètres et conditions influençant la pénétration de microparticules dans la peau afin d'améliorer l'efficacité de l'injecteur sans-aiguille. De toute évidence, les modèles présents dans la littérature ne conviennent pas pour décrire, de façon analytique, les phénomènes qui se produisent lorsque les microparticules pénètrent dans la peau ni même lorsqu'un projectile sphérique est projeté dans un gel. Pour atteindre l'objectif du projet, il a d'abord été nécessaire d'avoir une vue d'ensemble de ce qu'est l'injection sans aiguille et de son fonctionnement ainsi que de connaître les particularités de la peau. Ensuite, l'étude des différents modèles présents dans la littérature, pour l'injection sans aiguille, mais aussi dans le domaine de la balistique a apporté des pistes de réflexion afin de développer le modèle analytique. Face aux imprécisions des paramètres reliés aux microparticules ainsi qu'à la peau et face à l'absence d'outils pour raffiner les paramètres, le modèle a été développé avec un système macroscopique. Ainsi, des projectiles macroscopiques ont été tirés dans des gels transparents afin de visualiser les phénomènes qui se produisent et de suivre la position du projectile dans le gel en temps réel. Ces données ont ensuite été utilisées afin d'établir un système de forces pouvant décrire correctement les forces appliquées sur le projectile et prédire la profondeur maximale atteinte par celui-ci. Des tests d'indentation quasi-statiques et dynamiques ont aussi été effectués sur les gels afin de caractériser leurs propriétés mécaniques et viscoélastiques et d'approfondir la compréhension de leur mécanisme de rupture. Les trois contributions significatives de cette thèse sont le développement d'un modèle analytique de pénétration de projectiles dans des gels, une méthode de caractérisation de la viscosité et de la contrainte ultime à la rupture à de hauts taux de déformation ainsi que l'estimation de la vitesse limite pour qu'un projectile pénètre le gel en fonction des paramètres intrinsèques du projectile et du gel. En ce qui a trait à la peau, le modèle prédit correctement la profondeur finale atteinte par les microparticules ayant un diamètre plus grand ou égal à celui des cellules (pénétration extracellulaire), mais n'est pas valide pour les microparticules ayant un diamètre plus petit que la cellule, car le mécanisme de pénétration est différent (pénétration intracellulaire).
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
Resumo:
La présente thèse décrit des travaux de recherches effectués sur des systèmes tutoriels intelligents (STI) et plus précisément sur les tuteurs par traçage de modèle (MTT). Les travaux de recherche présentés ici s’intéressent à la conception de MTT pour des domaines dans lesquels les étudiants peuvent résoudre la tâche qui leur est assignée de plusieurs façons. Ces domaines comportent parfois des algorithmes avec retour sur trace lorsque l’étudiant ne sait pas forcément quelles sont les alternatives qui feront progresser correctement l’état de la tâche.Cette thèse présente dans un premier temps un système de représentation de connaissances pour les algorithmes avec retour sur trace qui rend les connaissances de cet algorithme exploitables par des agents logiciels. Elle présente dans un second temps un ensemble de processus qui exploitent ces connaissances dans le cadre de MTT pour assurer automatiquement le suivi de l’étudiant et ainsi que la production d’interventions pédagogiques. En premier, ces interventions consistent à fournir à l'étudiant de l’aide pour la prochaine étape qui explique quelles sont les possibilités dont dispose l'étudiant et comment déterminer laquelle est la meilleure. En deuxième, elles fournissent à l'étudiant des rétroactions stratégiques qui lui confirment que son action est valide tout en l’informant de l’existence d’une meilleure alternative le cas échéant. Enfin, elles fournissent à l'étudiant des rétroactions négatives qui lui apprennent dans quelles situations les actions invalides qu’il vient d’effectuer s’appliquent.Une expérimentation a été réalisée avec des étudiants de biologie de l’Université de Sherbrooke pour évaluer les effets de ces interventions sur les choix des étudiants au cours de la résolution de la tâche. Les résultats de cette expérience montrent que les étudiants bénéficiant de ces interventions effectuent plus souvent des choix optimaux, et démontrent ainsi une plus grande maîtrise du domaine.
Resumo:
La recension des écrits scientifiques à laquelle nous avons procédé a souligné clairement de très hautes fréquences de redoublement chez les jeunes d’âge scolaire relevant des enseignements primaire et post-primaire, dans les ex-colonies françaises d’Afrique occidentale et centrale (Burkina-Faso, Sénégal, Gabon). Au Burkina Faso, le taux moyen de redoublement observé au post-primaire a été d’environ 30 % au cours du quinquennat 2007/2008 à 2012/2013. La région du Centre-Ouest est celle qui en a enregistré le taux le plus élevé (33,1 %) sur les treize régions administratives du pays au cours de la période mentionnée, ce qui a justifié son choix dans le cadre de cette étude. L’objectif général visait à déterminer, dans le microsystème qu’est l’école au post-primaire général public, les caractéristiques des représentations sociales (RS) et des modèles d’intervention éducative (MIE) valorisés chez des enseignants et des directions d’écoles qui sont en relation avec le redoublement d’élèves habitant la région ciblée. L’étude menée est quantitative et de type descriptif. Dans le cadre de celle-ci nous avons fait usage d’une démarche d’enquête par questionnaire auprès d’un échantillon de convenance, stratifié et pondéré constitué de 199 enseignantes et enseignants, incluant un membre du personnel de direction pour chacune des institutions de provenance des sujets (N = 14 directions). Le résultat majeur est spécifique aux enseignants titulaires du CAPES (diplôme pédagogique le plus élevé) qui travaillent dans les communes urbaines où les écoles présentent un seuil élevé de redoublement (21 % et plus). Il suggère des caractéristiques qui correspondent à des profils de valorisation élevés de la représentation positive du redoublement d’une part, et de celle de l’externalité des causes du phénomène, d’autre part. Les principales caractéristiques des MIE privilégiés par ces derniers rapportent, quant à elles, une valorisation moyenne ou faible du MIE 3 (hétérostructuration coactive) et concomitamment une valorisation élevée du MIE 4 (interstructuration cognitive). Cependant, les données recueillies auprès des directions d’écoles dont la taille sous-échantillonnale demeure restreinte n’ont permis qu’une interprétation limitée hors de laquelle notre discours s’avérerait hautement spéculatif. Les enseignants et les directions d’école pourront bénéficier de l’intégration des données issues de l’étude au plan de la formation continue. Ils pourront par conséquent questionner leurs pratiques pédagogiques et leurs attitudes au regard des causes et des effets réels du redoublement sur la réussite et la persévérance scolaire des jeunes au post-primaire. Cela dans un contexte, où la scolarisation de base obligatoire de 10 ans constitue un objectif visé à l’horizon 2025 par le gouvernement du Burkina Faso dans le cadre de la réforme éducative engagée depuis 2007.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Les recherches démontrent que les arts plastiques à l’école apportent des bénéfices culturels et psychocognitifs majeurs aux enfants (National Endowment for the Arts, 2012; Hoffmann Davis, 2005, 2008; Karkou et Glasman, 2004; Sylwester, 1998; Goetz Zwirn et Graham, 2005; Greene, 1995). Mais en général, plus les garçons avancent en âge au primaire, plus ils éprouvent de difficultés et démontrent un intérêt moindre que celui des filles pour les arts plastiques à l’école. Au secondaire, l’écart ne fait que s’accentuer (Savoie, Grenon et St-Pierre, 2010, 2012; Octobre, 2004; Dumais, 2002; Blaikie, Schönau et Steers, 2003). Même s’ils ne peuvent garantir la réussite de leurs élèves, les enseignants ont une influence considérable sur des variables qui affectent les apprentissages telles que le choix de matériaux didactiques, des environnements éducationnels et la variable qui nous intéresse particulièrement : La prise en compte des comportements des élèves en lien avec leurs styles cognitifs. Pour mieux les aider, notre recherche veut saisir les liens potentiels qui pourraient exister entre les styles cognitifs des individus créateurs et leurs préférences sur le plan de l’expression graphique, plus spécifiquement au regard du langage plastique. En d’autres mots, nous souhaitons fournir des marqueurs utiles à la différenciation pédagogique adaptée aux styles cognitifs (Baron-Cohen, 2005) des filles et des garçons en classe d’art. Nous empruntons des concepts délimités et mesurables qui constituent notre cadre de référence et proviennent des domaines de la psychologie cognitive et de l’enseignement des arts visuels. Notre recherche se fait auprès d’artistes professionnels et d’étudiants adultes en arts visuels, tous genres confondus. Nous mesurons chez eux, dans un premier temps, leurs styles cognitifs à l’aide du test RMET de Baron-Cohen (Ibid.). En rapport avec ces styles, nous tentons ensuite de dégager des marqueurs dans la démarche et les productions artistiques des individus. En d’autres mots, notre étude vise essentiellement à procurer des indicateurs fiables, aux chercheurs et aux enseignants en arts, quant au lien potentiel entre les styles cognitifs et le langage plastique. Ces précieux indicateurs pourront ensuite leur servir, entre autres, à la construction de modèles pédagogiques, d’environnements éducationnels ou d’activités adaptées aux styles des élèves masculins comme féminins. Au plan méthodologique, notre recherche adopte une approche quantitative, pragmatique, quasi expérimentale et exploratoire (Lefrancois, 1997; Kothari, 2004; Grawitz, 1988; Larose, Bédard, Couturier, Grenon, Lavoie, Lebrun, Morin, Savard et Theis, 2011). Notre mode d’analyse se base sur la vérification de faits observables et sur une prise de décision scientifique se servant de techniques statistiques inférentielles (Saporta, 2011; Field, 2009). Notre approche s’appuie donc sur une variable dépendante liée au style cognitif des participants et sur une vingtaine de variables indépendantes liées au langage plastique. Nos résultats démontrent qu’au moins un indicateur de style cognitif ressort significativement dans le langage plastique, soit la variation chromatique. Suite à notre question : Dans les éléments de langage plastique des créateurs en arts visuels, peut-on observer des indicateurs de styles cognitifs? La réponse s’est avérée positive et fiable sur au moins une variable : la couleur. En effet, suite à nos analyses statistiques inférentielles, la variation chromatique est ressorti comme un indicateur très significatif de style cognitif et celui qui ressort le plus de nos résultats. Nous avons clairement mesuré que les individus qui décodent moins bien les émotions chez les autres démontrent une préférence pour des variations de couleurs plutôt monochromes, alors que les individus plutôt empathiques démontrent une préférence pour des univers surtout multichromes. Nous avons mesuré une forte habileté à reconnaitre et à discriminer les émotions, autant chez nos artistes professionnels que chez nos sujets étudiants universitaires. D’autres variables analysées, comme le genre, l’éducation ou l’âge ne se sont pas avérées des indicateurs fiables de styles cognitifs particuliers.