872 resultados para Large-scale experiments


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La réparation par excision de nucléotides (NER) permet l'élimination des lésions provoquant une distorsion de la double hélice de l’ADN. Ces lésions sont induites par plusieurs agents environnementaux comme les rayons UV, ainsi que par certaines drogues chimio- thérapeutiques tel que le cisplatine. Des défauts dans la NER conduisent à de rares maladies autosomiques héréditaires : La xérodermie pigmentaire (XP), le syndrome de Cockayne (CS), le syndrome de sensibilité aux UVSS et la trichothiodystrophie (TTD). Ces maladies sont associées soit à une prédisposition élevée au cancer de la peau et / ou à de graves anomalies du développement neurologique. Le groupe de patients XP-A représente le deuxième groupe (XP) le plus fréquent, et possède la forme la plus sévère combinant cancer de la peau avec un haut risque de dégénérescence neurologique. À date, aucune explication n`a été proposée pour les symptômes neurologiques observés chez ces patients. Nous avions suggéré ainsi que la protéine XPA possède d`autres fonctions dans d`autres processus cellulaires, ceci en interagissant avec des partenaires protéiques différents de ceux déjà connus. Afin de confirmer cette hypothèse nous avions réalisé une étude protéomique à grande échelle en combinant la spectrométrie de masse à une immunoprécipitation en Tandem d`affinité (TAP), afin d`identifier de nouvelles protéines interagissant directement avec XPA. Nous avions montré que XPA peut interagir avec MRE11, la protéine clé de la réparation par recombinaison homologue. Des études additionnelles sont requises pour confirmer cette interaction et comprendre sa fonction

Relevância:

90.00% 90.00%

Publicador:

Resumo:

There is an increasing demand for renewable energies due to the limited availability of fossil and nuclear fuels and due to growing environmental problems. Photovoltaic (PV) energy conversion has the potential to contribute significantly to the electrical energy generation in the future. Currently, the cost for photovoltaic systems is one of the main obstacles preventing production and application on a large scale. The photovoltaic research is now focused on the development of materials that will allow mass production without compromising on the conversion efficiencies. Among important selection criteria of PV material and in particular for thin films, are a suitable band gap, high absorption coefficient and reproducible deposition processes capable of large-volume and low cost production. The chalcopyrite semiconductor thin films such as Copper indium selenide and Copper indium sulphide are the materials that are being intensively investigated for lowering the cost of solar cells. Conversion efficiencies of 19 % have been reported for laboratory scale solar cell based on CuInSe2 and its alloys. The main objective of this thesis work is to optimise the growth conditions of materials suitable for the fabrication of solar cell, employing cost effective techniques. A typical heterojunction thin film solar cell consists of an absorber layer, buffer layer and transparent conducting contacts. The most appropriate techniques have been used for depositing these different layers, viz; chemical bath deposition for the window layer, flash evaporation and two-stage process for the absorber layer, and RF magnetron sputtering for the transparent conducting layer. Low cost experimental setups were fabricated for selenisation and sulphurisation experiments, and the magnetron gun for the RF sputtering was indigenously fabricated. The films thus grown were characterised using different tools. A powder X-ray diffractometer was used to analyse the crystalline nature of the films. The energy dispersive X-ray analysis (EDX) and scanning electron microscopy i (SEM) were used for evaluating the composition and morphology of the films. Optical properties were investigated using the UV-Vis-NIR spectrophotometer by recording the transmission/absorption spectra. The electrical properties were studied using the two probe and four probe electrical measurements. Nature of conductivity of the films was determined by thermoprobe and thermopower measurements. The deposition conditions and the process parameters were optimised based on these characterisations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

As the number of resources on the web exceeds by far the number of documents one can track, it becomes increasingly difficult to remain up to date on ones own areas of interest. The problem becomes more severe with the increasing fraction of multimedia data, from which it is difficult to extract some conceptual description of their contents. One way to overcome this problem are social bookmark tools, which are rapidly emerging on the web. In such systems, users are setting up lightweight conceptual structures called folksonomies, and overcome thus the knowledge acquisition bottleneck. As more and more people participate in the effort, the use of a common vocabulary becomes more and more stable. We present an approach for discovering topic-specific trends within folksonomies. It is based on a differential adaptation of the PageRank algorithm to the triadic hypergraph structure of a folksonomy. The approach allows for any kind of data, as it does not rely on the internal structure of the documents. In particular, this allows to consider different data types in the same analysis step. We run experiments on a large-scale real-world snapshot of a social bookmarking system.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Worldwide water managers are increasingly challenged to allocate sufficient and affordable water supplies to different water use sectors without further degrading river ecosystems and their valuable services to mankind. Since 1950 human population almost tripled, water abstractions increased by a factor of four, and the number of large dam constructions is about eight times higher today. From a hydrological perspective, the alteration of river flows (temporally and spatially) is one of the main consequences of global change and further impairments can be expected given growing population pressure and projected climate change. Implications have been addressed in numerous hydrological studies, but with a clear focus on human water demands. Ecological water requirements have often been neglected or addressed in a very simplistic manner, particularly from the large-scale perspective. With his PhD thesis, Christof Schneider took up the challenge to assess direct (dam operation and water abstraction) and indirect (climate change) impacts of human activities on river flow regimes and evaluate the consequences for river ecosystems by using a modeling approach. The global hydrology model WaterGAP3 (developed at CESR) was applied and further developed within this thesis to carry out several model experiments and assess anthropogenic river flow regime modifications and their effects on river ecosystems. To address the complexity of ecological water requirements the assessment is based on three main ideas: (i) the natural flow paradigm, (ii) the perception that different flows have different ecological functions, and (iii) the flood pulse concept. The thesis shows that WaterGAP3 performs well in representing ecologically relevant flow characteristics on a daily time step, and therefore justifies its application within this research field. For the first time a methodology was established to estimate bankfull flow on a 5 by 5 arc minute grid cell raster globally, which is a key parameter in eFlow assessments as it marks the point where rivers hydraulically connect to adjacent floodplains. Management of dams and water consumption pose a risk to floodplains and riparian wetlands as flood volumes are significantly reduced. The thesis highlights that almost one-third of 93 selected Ramsar sites are seriously affected by modified inundation patterns today, and in the future, inundation patterns are very likely to be further impaired as a result of new major dam initiatives and climate change. Global warming has been identified as a major threat to river flow regimes as rising temperatures, declining snow cover, changing precipitation patterns and increasing climate variability are expected to seriously modify river flow regimes in the future. Flow regimes in all climate zones will be affected, in particular the polar zone (Northern Scandinavia) with higher river flows during the year and higher flood peaks in spring. On the other side, river flows in the Mediterranean are likely to be even more intermittent in the future because of strong reductions in mean summer precipitation as well as a decrease in winter precipitation, leading to an increasing number of zero flow events creating isolated pools along the river and transitions from lotic to lentic waters. As a result, strong impacts on river ecosystem integrity can be expected. Already today, large amounts of water are withdrawn in this region for agricultural irrigation and climate change is likely to exacerbate the current situation of water shortages.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A visual SLAM system has been implemented and optimised for real-time deployment on an AUV equipped with calibrated stereo cameras. The system incorporates a novel approach to landmark description in which landmarks are local sub maps that consist of a cloud of 3D points and their associated SIFT/SURF descriptors. Landmarks are also sparsely distributed which simplifies and accelerates data association and map updates. In addition to landmark-based localisation the system utilises visual odometry to estimate the pose of the vehicle in 6 degrees of freedom by identifying temporal matches between consecutive local sub maps and computing the motion. Both the extended Kalman filter and unscented Kalman filter have been considered for filtering the observations. The output of the filter is also smoothed using the Rauch-Tung-Striebel (RTS) method to obtain a better alignment of the sequence of local sub maps and to deliver a large-scale 3D acquisition of the surveyed area. Synthetic experiments have been performed using a simulation environment in which ray tracing is used to generate synthetic images for the stereo system

Relevância:

90.00% 90.00%

Publicador:

Resumo:

This a short presentation which introduces how models and modelling help us to solve large scale problems in the real world. It introduces the idea that dynamic behaviour is caused by interacting components in the system. Feedback in the system makes behaviour prediction difficult unless we use modelling to support understanding

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Wednesday 23rd April 2014 Speaker(s): Willi Hasselbring Organiser: Leslie Carr Time: 23/04/2014 14:00-15:00 Location: B32/3077 File size: 802Mb Abstract The internal behavior of large-scale software systems cannot be determined on the basis of static (e.g., source code) analysis alone. Kieker provides complementary dynamic analysis capabilities, i.e., monitoring/profiling and analyzing a software system's runtime behavior. Application Performance Monitoring is concerned with continuously observing a software system's performance-specific runtime behavior, including analyses like assessing service level compliance or detecting and diagnosing performance problems. Architecture Discovery is concerned with extracting architectural information from an existing software system, including both structural and behavioral aspects like identifying architectural entities (e.g., components and classes) and their interactions (e.g., local or remote procedure calls). In addition to the Architecture Discovery of Java systems, Kieker supports Architecture Discovery for other platforms, including legacy systems, for instance, inplemented in C#, C++, Visual Basic 6, COBOL or Perl. Thanks to Kieker's extensible architecture it is easy to implement and use custom extensions and plugins. Kieker was designed for continuous monitoring in production systems inducing only a very low overhead, which has been evaluated in extensive benchmark experiments. Please, refer to http://kieker-monitoring.net/ for more information.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

We tested the general predictions of increased use of nest boxes and positive trends in local populations of Common Goldeneye (Bucephala clangula) and Bufflehead (Bucephala albeola) following the large-scale provision of nest boxes in a study area of central Alberta over a 16-year period. Nest boxes were rapidly occupied, primarily by Common Goldeneye and Bufflehead, but also by European Starling (Sturnus vulgaris). After 5 years of deployment, occupancy of large boxes by Common Goldeneye was 82% to 90% and occupancy of small boxes by Bufflehead was 37% to 58%. Based on a single-stage cluster design, experimental closure of nest boxes resulted in significant reductions in numbers of broods and brood sizes produced by Common Goldeneye and Bufflehead. Occurrence and densities of Common Goldeneye and Bufflehead increased significantly across years following nest box deployment at the local scale, but not at the larger regional scale. Provision of nest boxes may represent a viable strategy for increasing breeding populations of these two waterfowl species on landscapes where large trees and natural cavities are uncommon but wetland density is high.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The land/sea warming contrast is a phenomenon of both equilibrium and transient simulations of climate change: large areas of the land surface at most latitudes undergo temperature changes whose amplitude is more than those of the surrounding oceans. Using idealised GCM experiments with perturbed SSTs, we show that the land/sea contrast in equilibrium simulations is associated with local feedbacks and the hydrological cycle over land, rather than with externally imposed radiative forcing. This mechanism also explains a large component of the land/sea contrast in transient simulations as well. We propose a conceptual model with three elements: (1) there is a spatially variable level in the lower troposphere at which temperature change is the same over land and sea; (2) the dependence of lapse rate on moisture and temperature causes different changes in lapse rate upon warming over land and sea, and hence a surface land/sea temperature contrast; (3) moisture convergence over land predominantly takes place at levels significantly colder than the surface; wherever moisture supply over land is limited, the increase of evaporation over land upon warming is limited, reducing the relative humidity in the boundary layer over land, and hence also enhancing the land/sea contrast. The non-linearity of the Clausius–Clapeyron relationship of saturation specific humidity to temperature is critical in (2) and (3). We examine the sensitivity of the land/sea contrast to model representations of different physical processes using a large ensemble of climate model integrations with perturbed parameters, and find that it is most sensitive to representation of large-scale cloud and stomatal closure. We discuss our results in the context of high-resolution and Earth-system modelling of climate change.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Centred at the interface between the sea-breeze and the return flow aloft, Kelvin-Helmholtz billows (KHB) are an important feature of the turbulent structure of some sea-breeze circulations (SBCs). In other SBCs, there are no prominent KHBs observed. Factors governing the appearance of billows are determined from a database of 139 sea breezes, constructed from two years of summertime surface observations at a site on the south coast of England. Post-frontal oscillations occur in the surface data for some SBCs and are interpreted as indicating possible KHBs aloft. The SBCs are formed under a wide range of synoptic conditions, enabling various measures of possible billow occurrence to be related to properties of the large-scale, ambient flow. Consistent with laboratory experiments of density currents, KHBs are suppressed for propagation into a head wind and enhanced with a tail wind. They are also found to be enhanced for stronger ambient wind speeds, while large-scale coast-parallel flow is effective in suppressing the billows.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In the event of a release of toxic gas in the center of London, the emergency services would need to determine quickly the extent of the area contaminated. The transport of pollutants by turbulent flow within the complex street and building architecture of cities is not straightforward, and we might wonder whether it is at all possible to make a scientifically-reasoned decision. Here we describe recent progress from a major UK project, ‘Dispersion of Air Pollution and its Penetration into the Local Environment’ (DAPPLE, www.dapple.org.uk). In DAPPLE, we focus on the movement of airborne pollutants in cities by developing a greater understanding of atmospheric flow and dispersion within urban street networks. In particular, we carried out full-scale dispersion experiments in central London (UK) during 2003, 2004, 2007, and 2008 to address the extent of the dispersion of tracers following their release at street level. These measurements complemented previous studies because (i) our focus was on dispersion within the first kilometer from the source, when most of the material was expected to remain within the street network rather than being mixed into the boundary layer aloft, (ii) measurements were made under a wide variety of meteorological conditions, and (iii) central London represents a European, rather than North American, city geometry. Interpretation of the results from the full-scale experiments was supported by extensive numerical and wind tunnel modeling, which allowed more detailed analysis under idealized and controlled conditions. In this article, we review the full-scale DAPPLE methodologies and show early results from the analysis of the 2007 field campaign data.