949 resultados para decay scheme


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The European Union Emissions Trading Scheme (EU ETS) is a cornerstone of the European Union's policy to combat climate change and its key tool for reducing industrial greenhouse gas emissions cost-effectively. The purpose of the present work is to evaluate the influence of CO2 opportunity cost on the Spanish wholesale electricity price. Our sample includes all Phase II of the EU ETS and the first year of Phase III implementation, from January 2008 to December 2013. A vector error correction model (VECM) is applied to estimate not only long-run equilibrium relations, but also short-run interactions between the electricity price and the fuel (natural gas and coal) and carbon prices. The four commodities prices are modeled as joint endogenous variables with air temperature and renewable energy as exogenous variables. We found a long-run relationship (cointegration) between electricity price, carbon price, and fuel prices. By estimating the dynamic pass-through of carbon price into electricity price for different periods of our sample, it is possible to observe the weakening of the link between carbon and electricity prices as a result from the collapse on CO2 prices, therefore compromising the efficacy of the system to reach proposed environmental goals. This conclusion is in line with the need to shape new policies within the framework of the EU ETS that prevent excessive low prices for carbon over extended periods of time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In recent years, vehicular cloud computing (VCC) has emerged as a new technology which is being used in wide range of applications in the area of multimedia-based healthcare applications. In VCC, vehicles act as the intelligent machines which can be used to collect and transfer the healthcare data to the local, or global sites for storage, and computation purposes, as vehicles are having comparatively limited storage and computation power for handling the multimedia files. However, due to the dynamic changes in topology, and lack of centralized monitoring points, this information can be altered, or misused. These security breaches can result in disastrous consequences such as-loss of life or financial frauds. Therefore, to address these issues, a learning automata-assisted distributive intrusion detection system is designed based on clustering. Although there exist a number of applications where the proposed scheme can be applied but, we have taken multimedia-based healthcare application for illustration of the proposed scheme. In the proposed scheme, learning automata (LA) are assumed to be stationed on the vehicles which take clustering decisions intelligently and select one of the members of the group as a cluster-head. The cluster-heads then assist in efficient storage and dissemination of information through a cloud-based infrastructure. To secure the proposed scheme from malicious activities, standard cryptographic technique is used in which the auotmaton learns from the environment and takes adaptive decisions for identification of any malicious activity in the network. A reward and penalty is given by the stochastic environment where an automaton performs its actions so that it updates its action probability vector after getting the reinforcement signal from the environment. The proposed scheme was evaluated using extensive simulations on ns-2 with SUMO. The results obtained indicate that the proposed scheme yields an improvement of 10 % in detection rate of malicious nodes when compared with the existing schemes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The shifted Legendre orthogonal polynomials are used for the numerical solution of a new formulation for the multi-dimensional fractional optimal control problem (M-DFOCP) with a quadratic performance index. The fractional derivatives are described in the Caputo sense. The Lagrange multiplier method for the constrained extremum and the operational matrix of fractional integrals are used together with the help of the properties of the shifted Legendre orthonormal polynomials. The method reduces the M-DFOCP to a simpler problem that consists of solving a system of algebraic equations. For confirming the efficiency and accuracy of the proposed scheme, some test problems are implemented with their approximate solutions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Signal Processing: Algorithms, Architectures, Arrangements, and Applications (SPA), 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese de mestrado em Biologia Humana e Ambiente, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2015

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We present a new method for lysis of single cells in continuous flow, where cells are sequentially trapped, lysed and released in an automatic process. Using optimized frequencies, dielectrophoretic trapping allows exposing cells in a reproducible way to high electrical fields for long durations, thereby giving good control on the lysis parameters. In situ evaluation of cytosol extraction on single cells has been studied for Chinese hamster ovary (CHO) cells through out-diffusion of fluorescent molecules for different voltage amplitudes. A diffusion model is proposed to correlate this out-diffusion to the total area of the created pores, which is dependent on the potential drop across the cell membrane and enables evaluation of the total pore area in the membrane. The dielectrophoretic trapping is no longer effective after lysis because of the reduced conductivity inside the cells, leading to cell release. The trapping time is linked to the time required for cytosol extraction and can thus provide additional validation of the effective cytosol extraction for non-fluorescent cells. Furthermore, the application of one single voltage for both trapping and lysis provides a fully automatic process including cell trapping, lysis, and release, allowing operating the device in continuous flow without human intervention.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Waveform tomographic imaging of crosshole georadar data is a powerful method to investigate the shallow subsurface because of its ability to provide images of pertinent petrophysical parameters with extremely high spatial resolution. All current crosshole georadar waveform inversion strategies are based on the assumption of frequency-independent electromagnetic constitutive parameters. However, in reality, these parameters are known to be frequency-dependent and complex and thus recorded georadar data may show significant dispersive behavior. In this paper, we evaluate synthetically the reconstruction limits of a recently published crosshole georadar waveform inversion scheme in the presence of varying degrees of dielectric dispersion. Our results indicate that, when combined with a source wavelet estimation procedure that provides a means of partially accounting for the frequency-dependent effects through an "effective" wavelet, the inversion algorithm performs remarkably well in weakly to moderately dispersive environments and has the ability to provide adequate tomographic reconstructions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

To study emerging diseases, I employed a model pathogen-host system involving infections of insect larvae with the opportunistic fungus Aspergillus flavus, providing insight into three mechanisms ofpathogen evolution namely de novo mutation, genome decay, and virulence factoracquisition In Chapter 2 as a foundational experiment, A. flavus was serially propagated through insects to study the evolution of an opportunistic pathogen during repeated exposure to a single host. While A. flavus displayed de novo phenotypic alterations, namely decreased saprobic capacity, analysis of genotypic variation in Chapter 3 signified a host-imposed bottleneck on the pathogen population, emphasizing the host's role in shaping pathogen population structure. Described in Chapter 4, the serial passage scheme enabled the isolation of an A. flavus cysteine/methionine auxotroph with characteristics reminiscent of an obligate insect pathogen, suggesting that lost biosynthetic capacity may restrict host range based on nutrient availability and provide selection pressure for further evolution. As outlined in Chapter 6, cysteine/methionine auxotrophy had the pleiotrophic effect of increasing virulence factor production, affording the slow-growing auxotroph with a modified pathogenic strategy such that virulence was not reduced. Moreover in Chapter 7, transformation with a virulence factor from a facultative insect pathogen failed to increase virulence, demonstrating the necessity of an appropriate genetic background for virulence factor acquisition to instigate pathogen evolution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Maximum production rates ofs and decay kinetics for the hydrated electron, the indolyl neutral radical and the indole triplet state have been obtained in the microsecond, broadband (X > 260 nm) flash photolysis of helium-saturated, neutral aqueous solutions of indole, in the absence and in the presence of the solutes NaBr, BaCl2*2H20 and CdSCV Fluorescence spectra and fluorescence lifetimes have also been obtained in the absence and in the presence of the above solutes, The hydrated electron is produced monophotonically and biphotonically at an apparent maximum rate which is increased by BaCl2*2H20 and decreased by NaBr and CdSOif. The neutral indolyl radical may be produced monophotonically and biphotonically or strictly monophotonically at an apparent maximum rate which is increased by NaBr and CdSO^ and is unaffected by BaCl2*2H20. The indole triplet state is produced monophotonically at a maximum rate which is increased by all solutes. The hydrated electron decays by pseudo first order processes, the neutral indolyl radical decays by second order recombination and the indole triplet state decays by combined first and second order processes. Hydrated electrons are shown to react with H , H2O, indole, Na and Cd"*""1"". No evidence has been found for the reaction of hydrated electrons with Ba . The specific rate of second order neutral indolyl radical recombination is unaffected by NaBr and BaCl2*2H20, and is increased by CdSO^. Specific rates for both first and second order triplet state decay processes are increased by all solutes. While NaBr greatly reduced the fluorescence lifetime and emission band intensity, BaCl2*2H20 and CdSO^ had no effect on these parameters. It is suggested that in solute-free solutions and in those containing BaCl2*2H20 and CdSO^, direct excitation occurs to CTTS states as well as to first excited singlet states. It is further suggested that in solutions containing NaBr, direct excitation to first excited singlet states predominates. This difference serves to explain increased indole triplet state production (by ISC from CTTS states) and unchanged fluorescence lifetimes and emission band intensities in the presence of BaCl2*2H20 and CdSOt^., and increased indole triplet state production (by ISC from S^ states) and decreased fluorescence lifetime and emission band intensity in the presence of NaBr. Evidence is presented for (a) very rapid (tx ^ 1 us) processes involving reactions of the hydrated electron with Na and Cd which compete with the reformation of indole by hydrated electron-indole radical cation recombination, and (b) first and second order indole triplet decay processes involving the conversion of first excited triplet states to vibrationally excited ground singlet states.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Single photon timing was used to study picosecond chlorophyll a fluorescence decay kinetics of pH induced non-photochemical quenching in spinach photosystem 2 particles. The characteristics of this quenching are a decrease in chlorophyll a fluorescence yield as well as a decrease in photochemistry at low pH. Picosecond kinetics of room temperature fluorescence temporally resolve the individual components of the steady state fluorescence yield into components that are related to primary energy conversion processes in photosystem 2. Four components were resolved for dark adapted (Fo), light saturated (Fm), and chemically reduced (Nadithionite) photosystem 2 reaction centres. The fastest and slowest components, indicative of energy transfer to and energy capture by the photosystem 2 reaction centre and uncoupled ("dead") chlorophyll, respectively, were not affected by changing pH from 6.5 to 4.0. The two intermediate components, indicative of electron transfer processes within the reaction centre of photosystem 2, were affected by the pH change. Results indicate that the decrease in the steady state fluorescence yield at low pH was primarily due to the decrease in lifetime and amplitude of the slower of the intermediate components. These results imply that the decrease in steady state fluorescence yield at low pH is not due to changes in energy transfer to and energy capture by the photosystem 2 reaction centre, but is related to changes in charge stabilization and charge recombination in the photosystem 2 reaction centre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Master of Science in Electrical Engineering) UANL, 2014.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce texte a été présenté à la table ronde « Contested Footage: Snuff, Disease, the Avant-Garde, and the Archive » lors du congrès annuel de la PCA/ACA (Popular Culture Association/American Culture Association) qui se tenait à la Nouvelle-Orléans, du 1er au 4 avril 2015. La participation à ce congrès s’inscrivait dans le cadre du projet de recherche « Archives et création : nouvelles perspectives sur l’archivistique » sous la direction d’Yvon Lemay. Ce projet est financée par le Conseil de recherches en sciences humaines du Canada (CRSH) dans le cadre du programme Savoir (2013-2016).