21 resultados para Revenu--Répartition--Modèles mathématiques
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Cette recherche porte sur la proposition d’une tâche d’évaluation en situation authentique et de sa grille d’évaluation formative dans le réseau collégial et des défis qu’elle soulève en regard de sa pertinence dans la discipline des mathématiques. Plus précisément, les difficultés posées par l’évaluation en général avec l’implantation de l’approche par compétences (APC) seront abordées. Une proposition d’une nouvelle approche sera faite dans le but de nous assurer d’une cohérence entre les évaluations proposées aux étudiantes et étudiants du 2e cycle du secondaire et la 1ère session au collégial. Nous allons également proposer des situations problématiques qui permettent à l’étudiante et l’étudiant de mobiliser ses ressources dans le cadre du cours Calcul Différentiel.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
La relation entre l'espace tablette et les ventes a été l'une des toutes premières à être analysée dans la littérature traitant du commerce au détail. Cette relation tait aussi assez souvent les manchettes des journaux. Récemment, par exemple, on rapportait que Coke et Pepsi avaient "éliminé", à l'aide d'ententes à long terme avec les détaillants, l'espace accordé à tous les autres fabricants de boissons gazeuses. L'effet de l'espace tablette sur les ventes demeure donc un problème important et d'actualité…
Resumo:
La plus grande partie de la corrélation entre les rendements des titres individuels est bien entendu expliquée par le marché. Cependant, les chercheurs s'entendent aujourd'hui pour dire qu'il existe des sources de covariation importante en dehors du marché. Ces sources de covariation ont souvent été décrites comme des effets d'industries (Benjamin King); plus généralement, on parlera ici d'effets de groupes. On parlera d'effets de groupes pour signifier que, s'il est vrai que les titres peuvent se regrouper d'après leur covariation, nette de l'effet du marché, ils ne se regroupent pour autant pas forcément d'après la classe d'industrie dans laquelle ils sont rangés…
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
[…] À l'aide de ce travail, je désire produire ou identifier dans une recherche, les attentes ou les besoins des enseignants en supervision, de façon à développer un vrai contexte adéquat de relation d'aide, c'est-à-dire d'expression et de satisfaction de besoins mutuels. Dans une époque où tous les intervenants du monde de l'éducation (lire ici États Généraux) ont manifesté un besoin éminent de superviser dans le but d'améliorer la qualité de l'enseignement à l'école primaire et secondaire, il deviendrait très avantageux de connaître les besoins et les réticences de chacun en matière de supervision pédagogique, afin d'en tirer des lignes de force permettant de rendre cette supervision dite essentielle, efficace et désirée de tous.
Resumo:
Ce mémoire aborde la question de l'entraînement au poste de travail des jeunes et nouveaux employés non spécialisés, à savoir : «Quels sont les modèles d'entraînement utilisés dans la grande industrie estrienne pour favoriser l'adaptation des nouveaux employés à leur poste de travail?» Au cours de cette recherche exploratoire, l'auteur tente de comprendre la dimension éducative entre les cadres de première ligne et les jeunes et nouveaux employés non spécialisés. Par le biais d'entrevues semi-directives, il a recueilli des données chez ces deux populations et les a ensuite analysées de manière qualitative en s'inspirant de l'approche de Miles et Huberman (1984). Les résultats obtenus permettent à l'auteur de croire qu'il n'existe pas de systématisation dans l'entraînement des jeunes et nouveaux employés non spécialisés dans les trois grandes industries estriennes concernées. Les résultats ont plutôt démontré la présence de moments d'instruction spontanés et circonstanciels.
Resumo:
[…] Le but de la présente étude consiste à rechercher des manifestations empiriques qui rendent compte d'une relation entre des modèles éducationnels différents et des séries d'activités d'apprentissage. Pour réaliser cet objectif, il importe dans une première étape, d'expliciter les différents modèles éducationnels retenus et qui peuvent être des facteurs d'orientations ou d'influences des activités d'apprentissage au niveau universitaire. Ensuite, on précisera comment s'effectue la sélection des activités d'apprentissage qui sont supposées être engendrées par ces modèles éducationnels. Une troisième étape servira à expliciter la méthode utilisée pour recueillir de l’information sur les modèles éducationnels et les activités d'apprentissage. La fin de ce chapitre annoncera les hypothèses de la recherche. [...]
Resumo:
Cette recherche exploratoire vise à cerner une réalité mal connue, soit les représentations des enseignants du primaire sur des modèles de planification interdisciplinaire dans lesquels les arts sont intégrés. Pour atteindre cette réalité, nous avons rencontré six enseignants du deuxième cycle du primaire. En nous appuyant sur une méthodologie de type qualitatif, nous avons recueilli six productions écrites sur une planification interdisciplinaire et, à l'aide de deux entrevues semi-dirigées, nous avons reçu les témoignages de chaque enseignant. L'analyse et les résultats de notre recherche font ressortir les représentations des enseignants sur l'interdisciplinarité scolaire, les objets et les modèles de planification interdisciplinaire ainsi que l'intégration des arts dans une intervention éducative interdisciplinaire. Cependant, compte tenu que nous n'avons rencontré que six enseignants, les résultats de notre étude ne peuvent être généralisés à l'ensemble des enseignants.
Resumo:
De nombreuses recherches (Pyle, 1918; Graham, 1926; Sandiford et Kerr, 1926; Lesser, Fifer et Clark, 1965; Vernon, 1982; voir Chan et Vemon, 1988) ont montré que les immigrants chinois ont de meilleures performances en mathématiques qu'en lettres (langues et sciences humaines dans le système nord-américain), et que leurs performances en mathématiques sont également meilleures que celles des nord Américains non-chinois. La plupart de ces recherches ont essayé d'expliquer cette performance par l'existence d'une différence du rapport à l'environnement spatial chez des Chinois (Gwiazda, Birch et Held, 1981; in Pêcheux, 1990), par l'impact de l'apprentissage précoce des particularités propres à l'écriture et aux structures des langues asiatiques (Hatta, 1978 et 1981; Nomura, 1981; Akiyama, Takei et Saito, 1982; Chan et Vernon, 1988; Iwawaki et Vernon, 1988), ou bien par la génétique (Gesell,1934; voir Eggen et Kauchak, 1992). Pour notre part, nous croyons que la motivation par rapport à l'apprentissage privilégiée de certaines matières forme une cause importante de ces différences. Ainsi, la présente recherche a pour but d'examiner l'influence de certaines composantes de la motivation sur la performance et la réussite scolaire en mathématiques chez des enfants immigrants chinois. [...]
Resumo:
Une hypothèse souvent faite dans les modèles micro-économique est que les différentes firmes dans une industrie particulière offrent toutes un produit homogène. Les consommateurs ne pouvant pas distinguer le produit des différentes firmes, un prix unique s'établit pour ce marché compétitif. Mais dans la réalité, les produits de firmes différentes ne sont quasi jamais des substituts parfaits. Les biens sont souvent différenciés par une ou plusieurs caractéristiques. Une firme ne peut donc pas produire un bien sans considérer les préférences des consommateurs et les produits qui existent déjà sur ce marché. La décision de ne pas produire ou de produire et les caractéristiques que le produit possédera, s'il est produit, est l'objet d'un vrai choix économique de la part des firmes. Lorsque dans un marché des biens sont produits avec plusieurs caractéristiques différentes, on parle alors de biens différenciés. Deux types de différenciation existent : la différenciation horizontale et la différenciation verticale. D'une part, pour la différenciation verticale, tous les consommateurs sont d'accord pour établir le même ordre de préférence sur l'ensemble des caractéristiques pour un prix égal, il y a un ordre naturel sur l'espace des caractéristiques. À ce titre, un exemple souvent utilisé est la qualité. Un consommateur préférera toujours le bien de meilleure qualité. Par contre, le revenu du consommateur et le prix détermineront son choix final. D'autre part, en ce qui concerne la différenciation horizontale, on note qu'en présence d'un ensemble de caractéristiques données et à prix égal le choix optimal d'un consommateur dépendra de son ordre de préférence sur l'ensemble des caractéristiques du produit et cet ordre diffère d'un consommateur à un autre. Pour mieux comprendre la différence entre les deux types de différenciation, nous allons prendre un exemple commun : deux consommateurs se voient offrir la possibilité d'obtenir une voiture gratuitement. Ils ont le choix entre deux voitures qui diffèrent seulement sur la couleur. Dans le cas de différenciation verticale, les deux consommateurs feront le même choix; dans le cas de différenciation horizontale, le choix de chacun des consommateurs ne sera pas nécessairement le même, le choix dépendra de leur préférence respective sur la couleur…