610 resultados para calcul variationnel
Resumo:
Ce mémoire a comme objectif de présenter une revue de la littérature et une analyse comparative des différents modèles existants pour le calcul de la capacité de support d’un plan d’eau aux apports en phosphore. Ce document a aussi pour but d’évaluer les différentes options pour l’utilisation de ce genre d’outil au Québec, ainsi que d’amorcer une réflexion sur les applications possibles de ce concept au niveau local, en lien avec l’aménagement du territoire des bassins versants. L’analyse comparative des modèles théoriques, combinée à la réflexion d’acteurs clés impliqués actuellement dans un processus qui consiste à tester leur utilisation dans les Laurentides au Québec, a permis de mettre en relief l’importance de calibrer les modèles régionalement. De plus, certains avantages semblent résider dans l’utilisation d’un modèle de nature empirique afin d’effectuer les prédictions sur les apports naturels et totaux en phosphore pour les lacs de cette région. Par contre, l’utilisation d’une approche de type « bilan de masse », s’avère tout de même indispensable afin de relativiser l’importance des différents apports anthropiques en phosphore du bassin versant. Dans l’avenir, l’utilisation de tels modèles permettra possiblement de justifier certaines mesures restrictives au développement des bassins versants, qui pourront s’insérer parmi les outils d’urbanisme actuels. Ce sont principalement les municipalités qui détiennent les pouvoirs nécessaires afin d’intégrer les prescriptions découlant de ce genre d’analyse à l’aménagement du territoire des bassins versants. Plusieurs outils d’urbanisme, tels que les plans d’aménagement d’ensemble (PAE) ou bien les règlements de zonage et de lotissement, semblent donner assez de latitude afin de permettre aux municipalités d’intervenir en ce sens. Toutefois, les modèles de capacité de support ne pourront pas être utilisés afin de calculer un nombre précis d’habitations qu’il est possible de construire dans le bassin versant d’un lac.
Resumo:
L’insomnie, une condition fréquemment retrouvée dans la population, se caractérise d’abord par une difficulté à initier ou à maintenir le sommeil et/ou par des éveils précoces le matin ou encore par un sommeil non-réparateur. Lorsqu’elle n’est pas accompagnée par des troubles psychiatriques ou médicaux ou un autre trouble de sommeil et qu’elle perdure plus de 6 mois on parle alors d’insomnie primaire chronique. Selon certains, cette condition serait associée à un état d’hyperéveil caractérisé par une augmentation de l’activité autonome sympathique durant le sommeil et l’éveil. Le baroréflexe est un important mécanisme de contrôle à court terme des fluctuations de la tension artérielle (TA) et de la fréquence cardiaque agissant sur le cœur et les vaisseaux sanguins par l’entremise du système nerveux autonome. On appelle sensibilité baroréceptive (SBR) la capacité du baroréflexe de réagir et de contrôler les fluctuations de TA en modulant le rythme cardiaque. De manière générale, la SBR serait augmentée durant la nuit par rapport à la journée. Aussi, il semblerait que le baroréflexe soit impliqué dans le phénomène de baisse physiologique de la TA pendant la nuit. Or, des données de notre laboratoire ont démontré une augmentation de la TA systolique au cours de la nuit ainsi qu’une atténuation de la baisse nocturne de TA systolique chez des sujets avec insomnie primaire chronique comparé à des témoins bons dormeurs. De plus, il a été démontré que le baroréflexe était altéré de façon précoce dans plusieurs troubles cardiovasculaires et dans l’hypertension artérielle. Or, il semblerait que l’insomnie soit accompagnée d’un risque accru de développement de l’hypertension artérielle. Ces études semblent aller dans le sens d’une altération des mécanismes de régulation de la TA dans l’insomnie. Par ailleurs, une réduction de la SBR serait aussi impliquée dans des états associés à une augmentation de l’activité autonome sympathique. Ainsi, nous nous sommes demandé si le baroréflexe pouvait constituer un des mécanismes de contrôle de la TA qui serait altéré dans l’insomnie et pourrait être impliqué dans l’augmentation de l’activité sympathique qui semble accompagner l’insomnie. Jusqu’à présent, le baroréflexe reste inexploré dans l’insomnie. L’objectif principal de ce mémoire était d’évaluer de façon non-invasive la SBR à l’éveil et en sommeil chez 11 sujets atteints d’insomnie primaire chronique comparé à 11 témoins bons dormeurs. L’évaluation du baroréflexe a été effectuée de façon spontanée par la méthode de l’analyse en séquence et par le calcul du coefficient alpha obtenu par l’analyse spectrale croisée de l’intervalle RR et de la TA systolique. De façon concomitante, les paramètres de la variabilité de l’intervalle RR en sommeil et à l’éveil ont aussi été comparés chez ces mêmes sujets. Aucune différence significative n’a été notée au niveau des index de la SBR entre le groupe d’insomniaques et celui des bons dormeurs, à l’éveil ou en sommeil. Cependant, on observe des valeurs légèrement plus faibles de la SBR chez les insomniaques ayant mal dormi (efficacité de sommeil (ES) < 85%) comparés aux insomniaques ayant bien dormi (ES≥ 85%) à la nuit expérimentale durant l’éveil et en sommeil. Par ailleurs, aucune différence n’a été notée entre le groupe d’insomniaques et celui des bons dormeurs au niveau des paramètres de la variabilité RR considérés (intervalle RR, PNN50, LF et HF en valeurs normalisées). En effet, les insomniaques tout comme les bons dormeurs semblent présenter une variation normale de l’activité autonome en sommeil, telle que représentée par les paramètres de la variabilité RR. Ces résultats préliminaires semblent suggérer que les mécanismes du baroréflexe sont préservés chez les sujets atteints d’insomnie primaire chronique tels que diagnostiqués de manière subjective. Cependant, il est possible qu’une altération des mécanismes du baroréflexe ne se révèle chez les insomniaques que lorsque les critères objectifs d’une mauvaise nuit de sommeil sont présents.
Resumo:
La transplantation hépatique est le seul traitement définitif des enfants ayant une hépatite fulminante sans résolution spontanée. L’évolution de cette maladie dans la population pédiatrique diffère de celle adulte, particulièrement en regard de l’encéphalopathie. Pour définir les indications de transplantation hépatique, plusieurs indicateurs précoces de pronostic furent étudiés chez les adultes. Ces indicateurs n’ont pu être transposés à la population pédiatrique. Objectif primaire : Déterminer les marqueurs de risque de mortalité des enfants recevant une transplantation hépatique pour une hépatite fulminante, se définissant par une insuffisance hépatique sévère sans antécédent au cours des huit semaines précédentes. Méthode : Il s’agit d’une étude rétrospective incluant tous les enfants ayant reçu une transplantation hépatique pour une hépatite fulminante à l’hôpital Sainte-Justine entre 1985 et 2005. Le score PELOD (Pediatric Logistic Organ Dysfunction) est une mesure de sévérité clinique d’un enfant aux soins intensifs. Il fut calculé à l’admission et avant la transplantation hépatique. Résultats : Quatorze enfants (cinq mois à seize ans) reçurent une transplantation hépatique pour une hépatite fulminante. Neuf enfants (64%) survécurent et cinq (36%) décédèrent. L’utilisation de la ventilation mécanique fut associée à un mauvais pronostic (p = 0,027). Entre l’admission et la transplantation hépatique, 88% des enfants ayant eu une variation du score PELOD inférieure à cinq survécurent. Tous ceux ayant eu une variation supérieure à cinq décédèrent. (p = 0,027) Conclusion : La variation du score PELOD pourrait aider à définir un indicateur précoce de l’évolution d’un enfant après une transplantation hépatique pour une hépatite fulminante.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Dans ce mémoire, nous étudierons quelques propriétés algébriques, géométriques et topologiques des surfaces de Riemann compactes. Deux grand sujets seront traités. Tout d'abord, en utilisant le fait que toute surface de Riemann compacte de genre g plus grand ou égal à 2 possède un nombre fini de points de Weierstrass, nous allons pouvoir conclure que ces surfaces possèdent un nombre fini d'automorphismes. Ensuite, nous allons étudier de plus près la formule de trace d'Eichler. Ce théorème nous permet de trouver le caractère d'un automorphisme agissant sur l'espace des q-différentielles holomorphes. Nous commencerons notre étude en utilisant la quartique de Klein. Nous effectuerons un exemple de calcul utilisant le théorème d'Eichler, ce qui nous permettra de nous familiariser avec l'énoncé du théorème. Finalement, nous allons démontrer la formule de trace d'Eichler, en prenant soin de traiter le cas où l'automorphisme agit sans point fixe séparément du cas où l'automorphisme possède des points fixes.
Resumo:
Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.
Resumo:
Ibn Khaldûn(1332-1406) fut homme d’Etat et historien des conflits et des changements politiques au Moyen-Orient et en Afrique du Nord. Il a écrit la Muqaddima, une vaste analyse du déclin de la civilisation arabe. Dans cet ouvrage l’ «éthique du Juste » est présentée comme l’obéissance à la loi et l’application des sciences rationnelles à la tradition. Ceci le mène à condamner l’ « éthique du Bien » en tant que calcul de son propre bonheur. Le conflit actuel reflète bien ce dualisme sous de nouvelles formes d’eudémonisme telle que l’utilitarisme. Sa théorie du changement politique et des conflits est toujours d’actualité : le développement économique conduit à la destruction des dynasties au pouvoir ; ce dernier repose sur l’Asabiya, une forme spécifique du capital social. Le pouvoir politique dure trois générations et connaît une évolution faite d’essor, d’apogée et de déclin. Cette théorie des « trois phases » du développement permet de mieux comprendre les conflits que connaît actuellement le monde arabe.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.
Resumo:
Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
Fond : Le substrat de fibrillation auriculaire (FA) vagale et celui secondaire à remodelage par tachycardie auriculaire (RTA) partagent beaucoup des caractéristiques : période réfractaire efficace (PRE) réduite, hétérogénéité accrue de PRE et quelques mécanismes moléculaires communs. Cette étude a comparé les 2 substrats à une abréviation comparable de PRE. Méthodes : Chez chacun de 6 chiens de groupe de stimulation vagal (SV), les paramètres de stimulation cervicale bilatérale de nerves vagaux ont été ajustés pour produire la même PRE moyenne (calculé à 8 sites des oreillettes gauche et droite) avec 6 chiens de groupe de RTA assorti à sexe et poids. Des paramètres électrophysiologiques, la durée moyenne de la fibrillation auriculaire (DAF) et les fréquences dominantes (FD) locales ont étés calculés. Résultats : En dépit des PREs assorties (SV: 80±12msec contre RTA: 79±12msec) la DAF était plus longue (*), l’hétérogénéité de conduction était plus élevée (*), la FD était plus rapide (*) et la variabilité de FD plus grande (*) chez les chiens SV. Les zones de maximum FD qui reflètent les zones d’origine de FA étaient à côté de ganglions autonomes chez les chiens SV. Conclusions : Pour un PRE atriale comparable, la FA secondaire à SV est plus rapide et plus persistante que la FA avec un substrat de RTA. Ces résultats sont consistants avec des modèles de travail suggérant que l'hyperpolarisation SV-induite contribue de façon important à la stabilisation et à l'accélération des rotors qui maintiennent la FA. La similitude de la distribution de FD du groupe vagal avec la distribution des lésions d’ablation après cartographie des électrogrammes atriales fragmentés suggère des nouvelles techniques d’ablation. La distribution des FD entre le SV et le RTA fournit de nouvelles idées au sujet de possible rémodelage neuroreceptorial et indique des différences importantes entre ces substrats de FA superficiellement semblables.