9 resultados para équations différentielles stochastiques
Resumo:
Cette thèse est constituée de deux parties : Dans la première partie nous étudions l’existence de solutions périodiques, de periode donnée, et à variations bornées, de l’équation de van der Pol en présence d’impulsions. Nous étudions, en premier, le cas où les impulsions ne dépendent pas de l’état. Ensuite, nous considèrons le cas où les impulsions dépendent de la moyenne de l’état et enfin, nous traitons le cas général où les impulsions dépendent de l’état. La méthode de résolution est basée sur le principe de point fixe de type contraction. Nous nous intéressons ensuite à l’étude d’un problème avec trois points aux limites, associé à certaines équations différentielles impulsives du second ordre. Nous obtenons un premier résultat d’existence de solutions en appliquant le théorème de point fixe de Schaefer. Un deuxième résultat est obtenu en utilisant le théorème de point fixe de Sadovskii. Pour le résultat d’unicité des solutions nous appliquons, enfin, un théorème de point fixe de type contraction. La deuxième partie est consacrée à la justification de la technique de moyennisation dans le cadre des équations différentielles floues. Les conditions sur les données que nous imposons sont moins restrictives que celles de la littérature.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
Dans ce mémoire sera présentée une nouvelle méthode numérique envisagée dans le but d’obtenir le pouvoir thermoélectrique à température finie. Une méthode d’entropie maximale est utilisée, ce qui était une caractéristique requise des équations dérivées. Toutes les équations nécessaires y sont présentées, ainsi que certaines astuces reliées au prolongement analytique de quantités bruitées ou de fonctions dont la convergence est lente etc. De plus, les trois fonctions de corrélation d’intérêt y sont calculées de trois façons différentes, avec les détails et les explications nécessaires. On y présente le cas de la conductivité électrique, du pouvoir thermoélectrique ainsi que la fonction de corrélation courant de chaleur-courant de chaleur. L’implémentation numérique finale s’est butée à des difficultés qui sont expliquées dans ce mémoire.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
La compréhension de l'aérothermique d'un véhicule durant sa phase de développement est une question essentielle afin d'assurer, d'une part, un bon refroidissement et une bonne efficacité de ses composants et d'autre part de réduire la force de traînée et évidement le rejet des gaz à effet de serre ou la consommation d'essence. Cette thèse porte sur la simulation numérique et la validation expérimentale de l'aérothermique d'un véhicule à trois roues dont deux, en avant et une roue motrice en arrière. La simulation numérique est basée sur la résolution des équations de conservation de la masse, de la quantité de mouvement et de l'énergie en utilisant l'approche RANS (Reynolds-Averaged Navier-Stokes). Le rayonnement thermique est modélisé grâce à la méthode S2S (Surface to Surface) qui suppose que le milieu séparant les deux surfaces rayonnantes, ici de l'air, ne participe pas au processus du rayonnement. Les radiateurs sont considérés comme des milieux poreux orthotropes où la perte de pression est calculée en fonction de leurs propriétés inertielle et visqueuse; leur dissipation thermique est modélisée par la méthode Dual flow. Une première validation de l'aérodynamique est faite grâce à des essais en soufflerie. Ensuite, une deuxième validation de la thermique est faite grâce à des essais routiers. Un deuxième objectif de la thèse est consacré à la simulation numérique de l'aérodynamique en régime transitoire du véhicule. La simulation est faite à l'aide de l'approche Detached eddy simulation (DES). Une validation expérimentale est faite à partir d'étude en soufflerie grâce à des mesures locales de vitesse à l'aide de sondes cobra.
Resumo:
Résumé : Cette étude examine l'impact de la taille et de la gradation de particules sur les corrélations théoriques et empiriques existantes les plus connues entre la résistance au cisaillement et le comportement dilatatant des matériaux granulaires en condition de déformation plane et en compression triaxiale drainée. À cette fin, 276 tests de cisaillements symétriques directs et 35 tests de compressions triaxiales drainées ont été menés sur des échantillons composés de billes de basalte (particules rondes), et de sables constitués de particules angulaires (sable de Péribonka et sable d'Eastmain) sur une échelle de 63 µm à 2000 µm afin d'évaluer leur résistance au cisaillement et leur comportement de dilatance sur une vaste échelle de pressions normales et de densités relatives initiales. Premièrement, la fiabilité et l'applicabilité des limites de mesure à l’aide de tests physiques de cisaillements symétriques directs dans l'interprétation de la résistance au cisaillement frictionnel en déformation plane des matériaux granulaires ont été discutées et confirmées par l'usage du code informatique DEM, SiGran. L'accent a été particulièrement mis sur la validation du modèle DEM au moyen de comparaison des résultats des simulations DEM avec leurs équivalents physiques à une échelle macro. Les résultats virtuels DSA sont abordés du point de vue de la coaxialité entre les principales tensions et les principales directions des paliers de pression ainsi que de la déviation de la direction d'extension nulle à partir de la direction horizontale. Les résultats numériques fournissent également des données quantitatives sur les différentes formes d'énergie consommées durant le cisaillement confirmées par d'autres résultats physiques et numériques publiés. Sur la base des postulats précédents, un examen minutieux des résultats des essais de cisaillements directs et de données issues de la littérature a été accompli afin d'évaluer la fiabilité des formules empiriques bien connues de Bolton et Collins et al. avec leurs constantes couramment employées en condition de déformation plane. L'étude montre qu'une application des relations empiriques de force-dilatation de cisaillement avec les constantes proposées par Bolton (1986) et Collins et al. (1992) aux sables ayant une distribution de taille de particules différente peut conduire à surestimer leurs valeurs en terme de force de cisaillement. Dans cette étude, les coefficients des équations de Bolton et Collins et al. ont donc été ajustée afin de prendre en compte les caractéristiques des particules, en particulier le diamètre médian, D50. De manière analogue, les effets microstructuraux imposés par la géométrie interne des particules (par exemple la taille, la forme et la gradation des particules) sur la relation tension-dilatation très connue, celle de Rowe (1962), et son ajustement empirique en condition triaxiale drainée ont été examinés dans cette étude. Une comparaison des prédictions des formules proposées avec les données de force de cisaillement issues de la littérature fournit de nombreuses preuves en faveur des contraintes mises en place au sein des relations existantes de force-dilatation de cisaillement en condition de déformation plane et triaxiale. Ces comparaisons prouvent également que la prise en compte de la taille des grains conduit à des résultats plus tangibles que lorsque la taille de la particule n'est pas considérée. Les formules de force-dilatation ajustées peuvent se révéler avantageuses pour évaluer indépendamment la cohérence des forces de cisaillement déterminées expérimentalement et pour introduire des lois d’écoulement plus précises dans les analyses géotechniques analytiques et numériques.