960 resultados para Concertos (Harpsichord ensemble with string orchestra)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La version intégrale de ce mémoire [ou de cette thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche-action participative s’inscrit dans un paradigme féministe intersectionnelle. Elle présente la façon dont sept jeunes femmes de la rue (18-23 ans) de Québec ont fait l’expérience de la violence structurelle et ont déployé des stratégies pour y faire face. Elle s’articule autour d’une définition de la violence structurelle inspirée de celle proposée par Farmer, Bourgois, Scheper-Hugues et al. (2004) qui la présentent comme étant le processus à la racine des inégalités sociales et de l’oppression vécue par différents groupes sociaux. Ce processus s’opère dans trois dimensions complémentaires soit : 1) la domination symbolique, 2) la violence institutionnelle et 3) la violence quotidienne. Une analyse de contenu thématique a permis de dégager l’expérience des participantes dans chacune de ces dimensions. L’analyse de la domination symbolique a montré que les participantes ont été perçues à travers le prisme de quatre visions ou préjugés : 1) l’image de la jeune délinquante (Bad girl), 2) le discours haineux envers les personnes assistées sociales, 3) la culture du viol et 4) l’hétéronormativité. Les différentes expériences de violence quotidienne et institutionnelle vécues par les participantes peuvent être mises en lien avec ces manifestations de la domination symbolique. Les participantes ont expérimenté la violence institutionnelle à travers leurs trajectoires au sein des services de protection de l’enfance, durant leurs démarches pour obtenir un emploi, un logement ou du soutien financier de la part des programmes offerts par l’État et pendant leurs demandes d’aide auprès d’organismes communautaires ou d’établissements du réseau de la santé et des services sociaux. L’analyse de l’expérience des participantes a permis de révéler deux processus imbriqués de façon cyclique de violence structurelle : l’exclusion et le contrôle social. La plupart des stratégies ii expérimentées par les participantes pour combler leurs besoins fondamentaux les ont exposées au contrôle social. Le contrôle social a exacerbé les difficultés financières des participantes et a accru leur crainte de subir de l’exclusion. Bien que la violence structurelle expérimentée par les participantes se situe à la croisée des rapports de pouvoir liée au genre, à la classe sociale, à l’âge et à l’orientation sexuelle, il se dégage que la domination masculine s’est traduite dans le quotidien des participantes, car l’exclusion et le contrôle social ont créé des contextes où elles ont été susceptibles de subir une agression sexuelle ou de vivre de la violence de la part d’un partenaire intime. L’analyse de la dimension intersubjective de la grille d’analyse de Yuval-Davis (2006) montre la présence de certains rapports de pouvoir liés à la classe sociale au sein même de la population des jeunes de la rue. Cette analyse souligne également la difficulté des participantes à définir les contours de la violence et d’adopter des rapports égalitaires avec les hommes. Enfin, le processus de recherche-action participative expérimenté dans le cadre de cette thèse a été analysé à partir des critères de scientificité présentés par Reason et Bradbury (2001). L’élaboration de deux projets photos, choisis par le groupe en guise de stratégie de lutte contre la violence structurelle, a contribué à ouvrir le dialogue avec différents acteurs concernés par la violence structurelle envers les jeunes femmes de la rue et s’est inscrit dans une perspective émancipatoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les fonctions propres de l'opérateur de Laplace-Beltrami - ou simplement laplacien - sur une surface fermée, c'est-à-dire une variété riemannienne lisse, compacte et sans bord de dimension 2. Ces fonctions propres satisfont l'équation $\Delta_g \phi_\lambda + \lambda \phi_\lambda = 0$ et les valeurs propres forment une suite infinie. L'ensemble nodal d'une fonction propre du laplacien est celui de ses zéros et est d'intérêt depuis les expériences de plaques vibrantes de Chladni qui remontent au début du 19ème siècle et, plus récemment, dans le contexte de la mécanique quantique. La taille de cet ensemble nodal a été largement étudiée ces dernières années, notamment par Donnelly et Fefferman, Colding et Minicozzi, Hezari et Sogge, Mangoubi ainsi que Sogge et Zelditch. L'étude de la croissance de fonctions propres n'est pas en reste, avec entre autres les récents travaux de Donnelly et Fefferman, Sogge, Toth et Zelditch, pour ne nommer que ceux-là. Notre thèse s'inscrit dans la foulée du travail de Nazarov, Polterovich et Sodin et relie les propriétés de croissance des fonctions propres avec la taille de leur ensemble nodal dans l'asymptotique $\lambda \nearrow \infty$. Pour ce faire, nous considérons d'abord les exposants de croissance, qui mesurent la croissance locale de fonctions propres et qui sont obtenus à partir de la norme uniforme de celles-ci. Nous construisons ensuite la croissance locale moyenne d'une fonction propre en calculant la moyenne sur toute la surface de ces exposants de croissance, définis sur de petits disques de rayon comparable à la longueur d'onde. Nous montrons alors que la taille de l'ensemble nodal est contrôlée par le produit de cette croissance locale moyenne et de la fréquence $\sqrt{\lambda}$. Ce résultat permet une reformulation centrée sur les fonctions propres de la célèbre conjecture de Yau, qui prévoit que la mesure de l'ensemble nodal croît au rythme de la fréquence. Notre travail renforce également l'intuition répandue selon laquelle une fonction propre se comporte comme un polynôme de degré $\sqrt{\lambda}$. Nous généralisons ensuite nos résultats pour des exposants de croissance construits à partir de normes $L^q$. Nous sommes également amenés à étudier les fonctions appartenant au noyau d'opérateurs de Schrödinger avec petit potentiel dans le plan. Pour de telles fonctions, nous obtenons deux résultats qui relient croissance et taille de l'ensemble nodal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La documentation scientifique fait état de la présence, chez l’adulte, de cellules souches et progénitrices neurales (CSPN) endogènes dans les zones sous-ventriculaire et sous-granulaire du cerveau ainsi que dans le gyrus denté de l’hippocampe. De plus, un postulat selon lequel il serait également possible de retrouver ce type de cellules dans la moelle épinière et le néocortex des mammifères adultes a été énoncé. L’encéphalopathie de Wernicke, un trouble neurologique grave toutefois réversible qui entraîne un dysfonctionnement, voire une défaillance du cerveau, est causée principalement par une carence importante en thiamine (CT). Des observations récentes laissent envisager que les facteurs en cause dans la prolifération et la différenciation des CSPN pourraient également jouer un rôle important lors d’un épisode de CT. L’hypothèse, selon laquelle l’identification de nouveaux métabolites entrant dans le mécanisme ou la séquence de réactions se soldant en une CT pourraient en faciliter la compréhension, a été émise au moyen d'une démarche en cours permettant d’établir le profil des modifications métaboliques qui surviennent en de telles situations. Cette approche a été utilisée pour constater les changements métaboliques survenus au niveau du foyer cérébral dans un modèle de rats déficients en thiamine (rats DT), particulièrement au niveau du thalamus et du colliculus inférieur (CI). La greffe de CSPN a quant à elle été envisagée afin d’apporter de nouvelles informations sur la participation des CSPN lors d’un épisode de CT et de déterminer les bénéfices thérapeutiques potentiels offerts par cette intervention. Les sujets de l’étude étaient répartis en quatre groupes expérimentaux : un premier groupe constitué de rats dont la CT était induite par la pyrithiamine (rats DTiP), un deuxième groupe constitué de rats-contrôles nourris ensemble (« pair-fed control rats » ou rats PFC) ainsi que deux groupes de rats ayant subi une greffe de CSPN, soit un groupe de rats DTiP greffés et un dernier groupe constitué de rats-contrôles (rats PFC) greffés. Les échantillons de foyers cérébraux (thalamus et CI) des quatre groupes de rats ont été prélevés et soumis à des analyses métabolomiques non ciblées ainsi qu’à une analyse visuelle par microscopie à balayage électronique (SEM). Une variété de métabolites-clés a été observée chez les groupes de rats déficients en thiamine (rats DTiP) en plus de plusieurs métabolites dont la documentation ne faisait pas mention. On a notamment constaté la présence d’acides biliaires, d’acide cynurénique et d’acide 1,9— diméthylurique dans le thalamus, alors que la présence de taurine et de carnosine a été observée dans le colliculus inférieur. L’étude a de plus démontré une possible implication des CSPN endogènes dans les foyers cérébraux du thalamus et du colliculus inférieur en identifiant les métabolites-clés ciblant les CSPN. Enfin, les analyses par SEM ont montré une amélioration notable des tissus à la suite de la greffe de CSPN. Ces constatations suggèrent que l’utilisation de CSPN pourrait s’avérer une avenue thérapeutique intéressante pour soulager la dégénérescence symptomatique liée à une grave carence en thiamine chez l’humain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Information on level density for nuclei with mass numbers A?20250 is deduced from discrete low-lying levels and neutron resonance data. The odd-mass nuclei exhibit in general 47 times the level density found for their neighboring even-even nuclei at the same excitation energy. This excess corresponds to an entropy of ?1.7kB for the odd particle. The value is approximately constant for all midshell nuclei and for all ground state spins. For these nuclei it is argued that the entropy scales with the number of particles not coupled in Cooper pairs. A simple model based on the canonical ensemble theory accounts qualitatively for the observed properties.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Virginia Apgar (1909-1974) is one of the most recognized American doctors, worldwide known by his contribution as the developer of the "Apgar test" a method used for the evaluation of newborns all over the world. She had many interests. She was anesthesiologist, a brilliant teacher and researcher, but she also loved lecture, basketball, fishing, golf, philately, and music. She played violin and cello and she interpreted that instruments in various chamber groups. Being motivated by one of her patients, Carleen Hutchinson, a science and music teacher, she made four instruments, viola, violin, cello, and mezzo violin. Nearly twenty years of her death, on October 24 1994, on the occasion of the annual meeting of the American Academy of Pediatrics and the issue by American Postal Service of a stamp honoring her, some of the preferred Dr. Apgar music pieces where performed with the instruments she made. Her life mixed different activities and let invaluable contributions for humanity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The prediction of extratropical cyclones by the European Centre for Medium Range Weather Forecasts (ECMWF) and the National Centers for Environmental Prediction (NCEP) Ensemble Prediction Systems (EPS) is investigated using a storm-tracking forecast verifica-tion methodology. The cyclones are identified and tracked along the forecast trajectories so that statistics can be generated to determine the rate at which the position and intensity of the forecasted cyclones diverge from the corresponding analysed cyclones with forecast time. Overall the ECMWF EPS has a slightly higher level of performance than the NCEP EPS. However, in the southern hemisphere the NCEP EPS has a slightly higher level of skill for the intensity of the storms. The results from both EPS indicate a higher level of predictive skill for the position of extratropical cyclones than their intensity and show that there is a larger spread in intensity than position. The results also illustrate several benefits an EPS can offer over a deterministic forecast.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aerosols from anthropogenic and natural sources have been recognized as having an important impact on the climate system. However, the small size of aerosol particles (ranging from 0.01 to more than 10 μm in diameter) and their influence on solar and terrestrial radiation makes them difficult to represent within the coarse resolution of general circulation models (GCMs) such that small-scale processes, for example, sulfate formation and conversion, need parameterizing. It is the parameterization of emissions, conversion, and deposition and the radiative effects of aerosol particles that causes uncertainty in their representation within GCMs. The aim of this study was to perturb aspects of a sulfur cycle scheme used within a GCM to represent the climatological impacts of sulfate aerosol derived from natural and anthropogenic sulfur sources. It was found that perturbing volcanic SO2 emissions and the scavenging rate of SO2 by precipitation had the largest influence on the sulfate burden. When these parameters were perturbed the sulfate burden ranged from 0.73 to 1.17 TgS for 2050 sulfur emissions (A2 Special Report on Emissions Scenarios (SRES)), comparable with the range in sulfate burden across all the Intergovernmental Panel on Climate Change SRESs. Thus, the results here suggest that the range in sulfate burden due to model uncertainty is comparable with scenario uncertainty. Despite the large range in sulfate burden there was little influence on the climate sensitivity, which had a range of less than 0.5 K across the ensemble. We hypothesize that this small effect was partly associated with high sulfate loadings in the control phase of the experiment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We have developed an ensemble Kalman Filter (EnKF) to estimate 8-day regional surface fluxes of CO2 from space-borne CO2 dry-air mole fraction observations (XCO2) and evaluate the approach using a series of synthetic experiments, in preparation for data from the NASA Orbiting Carbon Observatory (OCO). The 32-day duty cycle of OCO alternates every 16 days between nadir and glint measurements of backscattered solar radiation at short-wave infrared wavelengths. The EnKF uses an ensemble of states to represent the error covariances to estimate 8-day CO2 surface fluxes over 144 geographical regions. We use a 12×8-day lag window, recognising that XCO2 measurements include surface flux information from prior time windows. The observation operator that relates surface CO2 fluxes to atmospheric distributions of XCO2 includes: a) the GEOS-Chem transport model that relates surface fluxes to global 3-D distributions of CO2 concentrations, which are sampled at the time and location of OCO measurements that are cloud-free and have aerosol optical depths <0.3; and b) scene-dependent averaging kernels that relate the CO2 profiles to XCO2, accounting for differences between nadir and glint measurements, and the associated scene-dependent observation errors. We show that OCO XCO2 measurements significantly reduce the uncertainties of surface CO2 flux estimates. Glint measurements are generally better at constraining ocean CO2 flux estimates. Nadir XCO2 measurements over the terrestrial tropics are sparse throughout the year because of either clouds or smoke. Glint measurements provide the most effective constraint for estimating tropical terrestrial CO2 fluxes by accurately sampling fresh continental outflow over neighbouring oceans. We also present results from sensitivity experiments that investigate how flux estimates change with 1) bias and unbiased errors, 2) alternative duty cycles, 3) measurement density and correlations, 4) the spatial resolution of estimated flux estimates, and 5) reducing the length of the lag window and the size of the ensemble. At the revision stage of this manuscript, the OCO instrument failed to reach its orbit after it was launched on 24 February 2009. The EnKF formulation presented here is also applicable to GOSAT measurements of CO2 and CH4.