50 resultados para Laplace transforms

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spécialisation des techniques agricoles que nous connaissons ces dernières décennies, particulièrement dans les régions rurales, est à l’origine de l’abus de fertilisants. Ces derniers sont actuellement reconnus comme étant les causes principales de la contamination de l’eau souterraine par les nitrates. Suite à leur ingestion via l’eau potable, les nitrates sont transformés en nitrites par la flore buccale. Une fois dans l’estomac les nitrites réagissent avec certaines amines provenant de l’alimentation pour générer des nitrosamines cancérogènes. L’objectif de notre étude était d’estimer quantitativement l’excès de risque de cancer (ER) pour les populations de sept régions rurales du Québec qui consomme l’eau potable provenant de réseaux municipaux alimentés en eau souterraine. Le territoire à l’étude était caractérisé par une agriculture intensive d’élevage. Les médianes (et 95e centiles) régionales des concentrations de nitrates mesurées dans les réseaux de ces régions étaient de : 0,18 (2,74); 0,48 (10,35); 0,15 (1,28); 0,32 (11); 0,05 (0,76); 0,10 (4,69); 0,09 (2,13) mg N-NO3-/l. Nous avons envisagé un scénario de transformation complète des nitrites et de certaines amines (diméthylamine, diéthylamine, n-butylamine, méthyléthylamine) en nitrosamines spécifiques : N-diméthylnitrosamine (NDMA), N-diéthylnitrosamine (NDEA), N-n-dibutylnitrosamine (NDBA) et N-méthyléthylnitrosamine (NMEA). Pour estimer la concentration de nitrites formés dans l’estomac, nous avons considéré une consommation définie d’eau potable, le volume de l’estomac et un taux de transformation des nitrates en nitrites. Supposant les quantités de nitrites et de chaque amine constantes pendant 1h, nous avons considéré la constante de nitrosation spécifique à chaque amine pour évaluer la dose d’exposition journalière à chaque nitrosamine équivalente formée. Par la suite, la combinaison de cette dose à un estimateur de potentiel cancérogène qhumain spécifique à chaque nitrosamine, nous a permis d’évaluer l’ER associé à chacune d’elles. Globalement l’analyse a démontré que les ER les plus élevés, estimés pour le NDBA, étaient de l’ordre de 10-6, ne contribuant pas de façon significative à une augmentation du risque de cancer pour ces populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comment conseiller l’action ? En la pensant bien et totalement pour qu’elle soit bonne et juste, dit-on, puisque conforme à la raison. La pensée de l’acte s’impose d’elle-même au sujet de l’action comme allant de soi, assurée de réussir, effective et efficace. Qui peut ainsi assigner au sujet rationnel la nécessité de son acte ? Le maître-penseur qu’est le théoricien de l’action. Cette figure de conseiller-philosophe de l’action est-elle constitutive de toute pensée de l’action ? Peut-on échapper à cette assimilation du sujet de l’action et de la pensée de l’acte qui transforme le conseil en ordre ? L’auteur examine les éléments philosophiques de cette illusion du conseil. L’analyse proudhonienne du travail industriel ne fournit-elle pas un moyen de surmonter cet obstacle épistémologique ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les politiques migratoires européennes sont conçues en termes de contrôle de l’entrée et du séjour des étrangers. Depuis la mise en place des conditions de libre circulation dans les années 1980, l’Union européenne est impliquée dans le traitement des non-nationaux qui, auparavant, relevait exclusivement de la discrétion étatique. La migration et l’asile sont aujourd’hui des domaines de compétence partagée entre l’Union et ses membres. La priorité est accordée à la lutte contre la migration irrégulière, perçue non seulement comme un défi à la souveraineté, mais aussi comme une menace à l’État providence et un risque pour la sécurité. Cette recherche porte sur l’européanisation de la lutte contre la migration irrégulière et ses effets sur les droits humains des étrangers. Il est soutenu que l’européanisation définie comme un processus de construction, de diffusion et d’institutionnalisation des normes, des pratiques et des convictions partagées, permet aux États d’atteindre leur objectif de limiter le nombre d’étrangers indésirés, y compris des demandeurs d’asile, sur leur sol. L’européanisation légitime et renforce les mesures préventives et dissuasives existantes à l’encontre des migrants clandestins. De nouvelles normes communes sont produites et de nouveaux dispositifs de coopération européenne sont créés en vue de réprimer la migration irrégulière. Ce phénomène transforme le paradigme migratoire dans les États membres ainsi que les pays candidats à l’adhésion qui se trouvent désormais chargés de la sécurisation des frontières extérieures de l’Union. La recherche démontre que ces développements ont un impact négatif sur les droits fondamentaux. Ils exacerbent aussi la vulnérabilité des demandeurs d’asile assimilés aux migrants économiques. Une analyse comparative de l’européanisation du renvoi forcé en France, au Royaume-Uni et en Turquie montre que la politique européenne engendre des atteintes aux droits et libertés des étrangers et limite leur capacité de contester les violations devant les tribunaux. L’accent est mis sur la nécessité de trouver un équilibre entre la préoccupation légitime des États et de l’Union d’assurer la sécurité et le bien-être de leurs citoyens et la protection des droits des migrants irréguliers. Il revient ultimement aux tribunaux de veiller à ce que le pouvoir discrétionnaire étatique s’exerce en stricte conformité avec les normes constitutionnelles et les obligations internationales découlant du droit international des réfugiés et des droits de l’homme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le phénomène de la création dans le cadre d’un discours sur la création – la production littéraire et artistique – ne va pas de soi. La tâche de le circonscrire comme un objet est antinomique : l’expérience du discours est en soi une création. Alors que le langage écrit semble au plus souvent «supprimer» l’auteur, le processus de création implique un «Je» créateur qui pense, qui se transforme, qui vit et dont la pensée s’imbrique à son objet qui, quant à lui, est «supprimé»; car il n’est pas extérieur à la pensée mais en relation avec elle. Ce travail, qui démontre le rapport complexe entre l’objet, la critique, le sujet et le commentaire, se penche donc sur l’«avant», le «pendant» et l’«après» de la création, dans un acte de mémoire, qui découle d’une performance littéraire sur la création. Des forces motrices informes et inconscientes, à la mise en forme jusqu’à la transmission, qui lui redonne un caractère d’informe, la création est en mouvement, comme le savoir est toujours prisonnier d’un «work in progress». Tributaire d’Antonin Artaud, le texte s’inscrit à partir de l’artiste en guise d’archétype existentiel, et s’y réfère constamment pour témoigner de la création sans la détacher de la vie et de ses expériences. Pour accéder au mystère du processus de création, lié à la pensée subjective, inobjectivable et irréductible au discours linéaire, ce travail met l’accent sur les associations de la pensée qui procède, exprimées par un «Je» exemplaire omniprésent, tatoué par l’expérience, mais à la position ambiguë à titre d’auteur. Processus de vie, de pensée et de création sont non seulement entremêlés, mais traversés par le champ du tout autre, historique, mondial et social, en perpétuelle évolution. Le rôle du créateur n’est pas de ne créer qu’à partir des connaissances extérieures à lui, mais à partir de lui-même – de son moi multiple et de sa pensée imprégnée de lectures et de ce qui le traverse et l’habite dans un temps donné – pour aboutir à la mise en forme d’un texte cohérent, d’une gravure particulière de l’esprit en marche vers le savoir, qui se situe toujours dans le devenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of decision making under uncertainty, we formalize the concept of analogy: an analogy between two decision problems is a mapping that transforms one problem into the other while preserving the problem's structure. We identify the basic structure of a decision problem, and provide a representation of the mappings that pre- serve this structure. We then consider decision makers who use multiple analogies. Our main results are a representation theorem for "aggregators" of analogies satisfying certain minimal requirements, and the identification of preferences emerging from analogical reasoning. We show that a large variety of multiple-prior preferences can be thought of as emerging from analogical reasoning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les glucides constituent la classe de molécules organiques la plus abondante et ceux-ci jouent des rôles cruciaux dans divers processus biologiques. De part leur importance médicinale, la préparation des désoxy-sucres, des C-glycosides et des C-disaccharides est devenue un sujet de pointe en synthèse organique. De façon générale, cette thèse décrit une nouvelle synthèse de novo des 4-désoxy hexopyrannoses en plus de la préparation de C-glycosides biologiquement actifs. De plus, une attention particulière a été portée à la préparation de novo de 4-désoxy-C-disaccharides. Dans un premier temps, le catalyseur de Cr(III) de Jacobsen et un complexe binaphtol/titane ont été utilisés pour réaliser des hétéro-Diels-Alder énantiosélectives. Les dihydropyrannes ainsi générés ont été transformés en 4-désoxy hexopyrannoses présents dans la nature. De cette façon, un dérivé de l’acide ézoaminuroïque, un précurseur de la désosamine et de la néosidomycine, a été préparé suivant cette approche de novo. De plus, à titre comparatif, la néosidomycine a également été fabriquée selon une approche chiron, à partir du méthyl alpha-D-mannopyrannoside. Finalement, une évaluation biologique préliminaire de la néosidomycine a été effectuée sur une la concanavaline-A (Chapitre 2). Dans un deuxième temps, une allylation stéréosélective sur un aldéhyde lié via des liens C-C à une unité mannoside a permis de générer un alcool homoallylique. Cette dernière fonctionnalité a été transformée en 4-désoxy hexopyrannose de configuration D ou L. De cette façon, la préparation de pseudo 4-désoxy-C-disaccharides, de 4-désoxy-C-disaccharides et de pseudo 4-désoxy aza-C-disaccharides a facilement été réalisée. Les rapports diastéréoisomériques de la réaction d’allylation ont été déterminés en plus de la configuration absolue des nouveaux centres stéréogéniques formés. La transformation des alcools homoallyliques en pyrannes poly hydroxylés ou en lactames poly hydroxylés a été réalisée, en plus de la déprotection de certains membres de cette famille pour une évaluation biologique préliminaire sur la concanavaline-A (Chapitre 3). Finalement, la synthèse de C-glycosides biologiquement actifs a été réalisée selon deux volets: i) préparation de 3-C-mannopyrannosyl coumarines et ii) synthèse de C-galactosides, inhibiteurs de la lectine PA-IL. Pour ce faire, le couplage de Heck a été utilisé à partir d’un ester alpha,bêta-insaturé, attaché à une unité glycosidique via des liens C-C, pour générer un dérivé glycosyl cinnamate de méthyle. Cependant, lorsque le 2-iodophénol est utilisé comme partenaire de Heck, la coumarine correspondante a été isolée. Les dérivés C-galactopyrannosyl cinnamates de méthyle représentent de bons inhibiteurs monovalents de la PA-IL avec un Kd aussi bas que 37 micro M (Chapitre 4).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Europe engendre des transformations majeures de l’État national, influence sa structure politique, sa conception de la démocratie et du droit, et produit des effets sur les rapports majorité minorités. Elle a pour effet d’éloigner l’État national du modèle traditionnel de l’État-Nation ethniquement ou culturellement homogène en l’amenant à reconnaître la pluralité de ses composantes nationales. Ces mutations sont le résultat du processus même d’intégration communautaire et des politiques de régionalisation et de décentralisation que favorisent les institutions européennes. Soumis au double processus d’intégration supranationale et de désagrégation infranationale, l’État national se transforme. Son rapport avec les minorités, également. L’Europe commande des aménagements de la diversité. Pour y arriver, elle impose un droit à la différence, lequel s’inscrit toujours dans la protection générale des droits de l’homme mais vise spécifiquement à reconnaître des droits identitaires ou poly ethniques aux personnes appartenant à des minorités, en tant que groupe, dans le but évident de les protéger contre la discrimination et l’intolérance. En faisant la promotion de ce droit à la différence, l’Europe propose un modèle alternatif à l’État-Nation traditionnel. La nation (majorité) peut désormais s’accommoder de la diversité. La nation n’est plus seulement politique, elle devient socioculturelle. En faisant la promotion du principe de subsidiarité, l’Europe incite à la décentralisation et à la régionalisation. En proposant un droit de la différence, l’Union européenne favorise la mise au point de mécanismes institutionnels permanents où la négociation continue de la normativité juridique entre groupes différents est possible et où l’opportunité est donnée aux minorités de contribuer à la définition de cette normativité. Le pluralisme juridique engendré par la communautarisation reste par ailleurs fortement institutionnel. L’État communautarisé détient encore le monopole de la production du droit mais permet des aménagements institutionnels de l’espace public au sein d’un ensemble démocratique plus vaste, donc l’instauration d’un dialogue entre les différentes communautés qui le composent, ce qui aurait été impensable selon la théorie classique de l’État-nation, du droit moniste et monologique. Ainsi, assistons-nous à la transformation progressive dans les faits de l’État-nation en État multinational. La question des minorités soulève un problème de fond : celui de l'organisation politique minoritaire. La volonté de respecter toutes les identités collectives, de donner un statut politique à toutes les minorités et de satisfaire toutes les revendications particularistes n’a pas de fin. L’État-Nation n’est certes pas le meilleur –ni le seul- modèle d’organisation politique. Mais l’État multinational constitue-t-il une alternative viable en tant que modèle d’organisation politique ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.