993 resultados para Problème de Steklov-Neumann


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effondrement des repères artistiques (que plusieurs associent aux premiers ready-made de Marcel Duchamp) dévoile les symptômes d’une crise de l’art. Comme l’histoire de l’art est en quelque sorte la représentation de ce que nous sommes, on peut raisonnablement penser que la crise s’étend bien au-dede l’art. Toutefois, l’art possède un éclairage puissant, car il illustre, littéralement, plusieurs problèmes notamment au niveau du jugement et de la raison. Faute de repères, le monde contemporain manquerait-il de discernement ? Cette question est tout à fait légitime dans le contexte actuel où tout et n’importe quoi semblent pouvoir être élevés au rang de l’Art. Le culte que l’on voue à l’individu paraît être l’une des causes du problème. On observe qu’en régime de singularité (pour reprendre l’expression de la sociologue de l’art, Nathalie Heinich) les relations du monde de l’art sont de plus en plus conflictuelles : lorsqu’on demande à un artiste de justifier son propre travail, la rationalité devient nécessairement instrumentale ; on rend également caduc le rôle du critique et des institutions. Ce mémoire s’intéresse à analyser, dans une perspective philosophique, les différentes manifestations de la crise de l’art et ses enjeux dans le monde actuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, comme dans le reste du monde, les agents du milieu de l'éducation sont de plus en plus concernés par le phénomène de l'intimidation chez les jeunes. Plusieurs programmes ont été conçus pour aider à contrer ce problème. Toutefois, peu d'études se sont penchées sur l'intervention au moyen de l'approche de l'éducation par l'aventure et du plein air. L'objectif de cette étude est de déterminer comment la socialisation peut être développée chez de jeunes victimes à risque, en ayant recours à ce type d'approche. Une recherche qualitative s'est donc penchée sur un projet d'intervention ayant appliqué le modèle de la séquence d'aventure, pour contribuer à prévenir la victimisation au troisième cycle du primaire. Les résultats révèlent que plusieurs moyens propres à ce type d'intervention s'avèrent efficaces au renforcement des habiletés personnelles et sociales, telles: l'affirmation de soi, la confiance en soi et l'ouverture aux autres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet du travail est d’étudier les prolongements de sous-copules. Un cas important de l’utilisation de tels prolongements est l’estimation non paramétrique d’une copule par le lissage d’une sous-copule (la copule empirique). Lorsque l’estimateur obtenu est une copule, cet estimateur est un prolongement de la souscopule. La thèse présente au chapitre 2 la construction et la convergence uniforme d’un estimateur bona fide d’une copule ou d’une densité de copule. Cet estimateur est un prolongement de type copule empirique basé sur le lissage par le produit tensoriel de fonctions de répartition splines. Le chapitre 3 donne la caractérisation de l’ensemble des prolongements possibles d’une sous-copule. Ce sujet a été traité par le passé; mais les constructions proposées ne s’appliquent pas à la dépendance dans des espaces très généraux. Le chapitre 4 s’attèle à résoudre le problème suivant posé par [Carley, 2002]. Il s’agit de trouver la borne supérieure des prolongements en dimension 3 d’une sous-copule de domaine fini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aucune figure, au XXe siècle et aujourd'hui, n'est comparable au zombie. Sa prolifération et sa réitération en font un cas d'étude exceptionnel. Or, une figure est inséparable des discours qui la voient naître. Il existe un subtil et profond arrimage entre la production d'une figure, son interprétation et l'économie de sens qui la voit naître. Ma modeste ambition, dans ce mémoire, s'insère dans une réflexion à caractère épistémologique où les enjeux narratifs et les notions critiques encadrant le phénomène zombie seront interrogés. De même, afin de faire émerger cette économie de sens, les modalités de sens de la métaphore doivent être cernées. Ce mémoire est donc une série de prolégomènes nécessaires à l'intelligence d'un important problème contemporain : l'interprétation d'une figure telle que le zombie. Le premier chapitre est une synthèse des manifestations de la figure et de sa compréhension. Les années 60 opèrent une importante transformation dans le corpus filmique zombie (et d'horreur) qui s'incarne dans Night of the Living Dead, de George Romero. Le second chapitre s'intéresse aux enjeux narratifs et aux notions critiques qui encadrent le phénomène zombie. La distinction entre thématique et esthétisme s'incarne alors dans la séparation stricte entre forme et contenu et se fait sentir dans les interprétations offertes du phénomène de l'horreur et dont les études sur le zombie sont tributaires. Cela fait, je rappellerai la vision de Todorov et d'Ingarden sur la représentation afin de cerner les enjeux véritables d'une interprétation. En définitive, la question sera de savoir si le zombie peut être pris à la lettre. Le troisième chapitre sera le moment d'interroger la métaphore afin qu'émergent les modalités de sens qui lui sont inhérentes. Ce chapitre se divisera en deux parties qui reprennent les moments essentiels de la métaphore : sa production et sa lecture. Pour ce faire, je parcourrai la tradition théorique sur la métaphore afin de saisir la portée de l'affirmation poétique qui établit un rapport métaphorique entre les zombies et les humains. Quelle est la signification de cette affirmation qui assume et guide la mise en récit d'une figure (le zombie), et qui assume et guide une lecture métaphorique de l'être humain? En guise de conclusion, je réfléchirai sur les modalités de la lecture en vue d'une interprétation de la figure du zombie. En ce sens, j'explorerai cette inséparabilité entre la manière, c'est-à-dire la métaphore, et son contenu, c'est-à-dire ses interprétations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire consiste en une explication de la critique biblique de Spinoza contenue dans la Traité théologico-politique. Cette critique répond à un problème précis : la subversion de la religion en superstition. Cette critique, nous l’expliquons en quatre parties. La première partie consiste en une mise en situation problématique. Elle montre que le problème biblique, qui appelle une critique, est la subversion de la religion. On y montre aussi l’origine de la superstition et la manière dont elle subvertit la religion. La seconde partie consiste en une mise en contexte historique, où l’on montre la pertinence historique d’une telle critique. Nous voyons en effet que la critique biblique de Spinoza s’inscrit dans une période de controverses théologiques importante. La troisième partie expose la méthode d’interprétation des Écritures de Spinoza (méthode historico-critique) et cherche à éclaircir la notion de lumière naturelle, notion fondamentale de la dite méthode. Enfin, dans la quatrième partie, nous exposons la critique spinoziste des autres méthodes interprétatives, jugées erronées par ce dernier, soient les méthodes surnaturelle, sceptique et dogmatique. Nous le verrons, la critique biblique, qui se rapporte à une question très précise, a une finalité plus générale. En effet, la critique biblique est inséparable du but que se donne Spinoza dans le Traité théologico-politique, soit défendre la liberté de penser et de dire ce que l’on pense. En fait, la critique biblique est un moyen pour réaliser ce but.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à étoffer la base conceptuelle du phénomène de sens au travail permettant ainsi de mieux le comprendre et le saisir et cherche à proposer un modèle théorique pouvant expliquer le processus de construction d’un sens au travail par des infirmières libanaises. Le sens au travail se présente à la fois en tant qu’un processus qui émerge suite aux interactions dynamiques qui s’établissent entre un individu et son contexte de travail et en tant que produit qui s’exprime chez un individu au niveau de la satisfaction, la motivation, l’engagement organisationnel, la performance et la santé au travail. L’étude de ce phénomène constitue une nouvelle voie permettant d’apporter un nouvel éclairage à un contexte de travail, tel que le contexte libanais, qui souffre depuis des années d’un problème de pénurie du personnel infirmier. L’interactionnisme symbolique a constitué le cadre épistémologique et méthodologique de cette étude qui a adopté une approche qualitative par théorisation ancrée. L’étude s’est déroulée dans une région libanaise auprès de neuf infirmières hospitalières exerçant la profession dans des contextes de travail variés. La collecte des données a été faite par le recours à des entrevues individuelles enregistrées sur un support numérique ; les données ont été par la suite transcrites et analysées suivant la méthode constructiviste de Charmaz (2006). Les résultats ont permis de proposer un modèle théorique qui explique le processus de construction d’un sens au travail qui découle des interactions des infirmières libanaises avec les divers éléments du contexte de travail. Ces infirmières ont développé une représentation du contexte de travail marquée par une surcharge de travail, un salaire inadéquat, des opportunités de développement et d’avancement professionnel réduites, un comportement inéquitable des supérieurs et un image publique dévalorisée de l’infirmière. Ce contexte porte atteinte à la satisfaction de trois objectifs recherchés par ces infirmières à travers leur travail et qui sont : 1) prendre soin des patients ; 2) subvenir à ses propres besoins ; et 3) être reconnue en tant que professionnelle. Afin de construire un sens au travail et composer avec ce contexte contraignant, les infirmières se basent sur leurs ressources intrinsèques. La valorisation de l’infirmière et du travail infirmier, la satisfaction de l’effort fourni, l’actualisation de soi et l’avancement professionnel permettent à ces infirmières de protéger et de maintenir un sens au travail. Finalement, il était possible de conceptualiser le sens au travail en tant qu’un phénomène subjectif et multidimensionnel, nourri par l’amour de la profession et se traduisant par un travail qui répond aux attentes des infirmières. Les connaissances qui ont émergé de cette étude pourront aider à mettre en place des stratégies personnelles et contextuelles permettant de favoriser le processus de construction de sens au travail chez les infirmières libanaises afin de réduire le problème de pénurie du personnel infirmier. Des pistes de recherches sont encore avancées et des recommandations pour la formation sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Pour les programmes sanitaires faits dans les pays à faibles ressources, la non-pérennisation des résultats est un phénomène important (Pluye, Potvin, & Denis, Making public health programs last: conceptualizing sustainability, 2004). Par contre, peu d’études ont été faites pour présenter des solutions à ce problème. Pour trouver des pistes de réponses, nous avons fait une étude de cas du programme national multisectoriel de lutte contre le VIH/SIDA (PNMLS) en République Démocratique du Congo. En 2004, le programme a été implanté avec l’aide de la Banque Mondiale à travers son programme MAP (Multi Aids Program). Le MAP s’est retiré en 2010. Objectifs : Le but de notre recherche était de déterminer, trois ans après le départ du MAP, quel a été le niveau de pérennisation des objectifs atteints. Notre autre objectif était de savoir quels ont été les facteurs qui ont influencé la pérennisation des objectifs atteints. Méthodes : Nous avons fait une revue de littérature sur la pérennisation et ainsi développé un cadre théorique mettant en lien les facteurs qui pourraient influencer la pérennisation des résultats. Nous avons observé le programme PNLMS dans son écosystème pour repérer quels sont les facteurs qui ont influé la pérennisation des résultats. Nous avons passé des entrevues aux acteurs clefs et avons fait une analyse documentaire, pour ainsi trouver des réponses à nos questions de recherche. Résultat : notre recherche supporte le concept qu’une approche multisectorielle aurait un impact positif sur la pérennisation des résultats. Par contre, il est important d’adapter cette approche multisectorielle à l’environnement et l’écosystème dans lequel évolue le programme. Cette adaptation doit se faire dès l’implantation du programme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente une nouvelle méthode pour accomplir la réaction de Mallory en utilisant la lumière visible. Pour atteindre ce but, la chimie photorédox qui s'est développée ces dernières années permettra une utilisation efficace de la lumière visible. De plus, la chimie en flux continu sera utilisé afin d'augmenter la surface irradiée du mélange réactionnel. Au cours de ces travaux, une nouvelle méthodologie photochimique utilisant un photocatalyseur de cuivre avec la lumière visible a été efficace pour la synthèse du 5hélicène. Un mécanisme de désactivation oxydante est proposé pour cette réaction. Par ailleurs, cette nouvelle méthodologie a été utilisée pour la synthèse d'un dérivé du 5hélicène et d'un 4hélicène-pyrène hybride. Par la suite, la méthodologie photochimique utilisant un photocatalyseur de cuivre avec la lumière visible a servi à la synthèse de divers carbazoles substitués au niveau de l'azote par des groupements aryles et alkyles. Au cours de cette synthèse, la réaction a révélé un problème de régiosélectivité. Ce dernier a été étudié par la synthèse de nouvelles triarylamines. Finalement, il a été découvert que l'utilisation d'un photocatalyseur de fer peut remplacer le photocatalyseur de cuivre en utilisant l'oxygène comme oxydant pour la synthèse de 9-phénylcarbazole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études rhétoriques ont documenté la pertinence de la rhétorique présidentielle et le pouvoir du président de définir les enjeux publics par le discours. Cette recherche porte sur les pratiques rhétoriques par lesquelles l'ancien président mexicain Calderón a défini la lutte contre la drogue qui a caractérisé son administration. Je soutiens que Calderón a avancé une définition du problème de la drogue par des pratiques de définition telles que l'association, la dissociation et les symboles de condensation. Mon analyse 1) identifie les pratiques rhétoriques de définition qui ont caractérisé la lutte à la drogue de Calderón; 2) examine les implications de ces pratiques; et 3) aborde les limites auxquelles les politiciens font face en tentant de modifier des définitions préalablement avancées. En conclusion, j’explique comment les métaphores et les pratiques de définition de Calderón ont ouvert un espace rhétorique où les droits humains pouvaient être révoqués et la violence encouragée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières Option Expertise-Conseil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.