997 resultados para Small Parameter


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hairpin Ribozyme kommen natürlich in den Minussträngen der Satelliten RNAs dreier Pflanzenviren (sTRsV, sArMV and sCYMoV) vor. In dieser Arbeit wurden mit dem Programm Mfold darin mehrere distinkte Sekundärstrukturelemente gefunden, die außerhalb des katalytischen Zentrums der Ribozyme lokalisieren. Verschiedene Varianten der drei Ribozyme wurden hergestellt und die Funktion der beobachteten peripheren Strukturelemente biochemisch untersucht. Die sTRsV Hairpin Ribozyme mit unterschiedlichen Längen in Arm C wiesen ähnliche cis-Spaltungsreaktionen auf, unabhängig von der Anzahl interner bulges in Arm C. Das gleiche Verhalten, jedoch bei schnelleren Spaltungsraten, wurde nach Entfernen der three-way junction, die 3’ von der Spaltstelle in Arm A liegt, beobachtet. Hier hat Arm C demnach keinen Einfluss auf die Katalyse, wogegen ein verlängerter Arm A die Reaktion verlangsamt. Unter den experimentellen Bedingungen war die Rückreaktion in Anwesenheit des natürlichen Arms A nicht messbar. Im Gegensatz dazu zeigten alle Varianten ohne die Arm A Erweiterung Ligationsaktivität, die am höchsten in dem Molekül mit dem längsten Arm C war, und gleichermaßen erniedrigt für zwei Varianten mit kürzerem Arm C. Keine der Reaktionen diverser sArMV Hairpin Ribozyme konnte reproduzierbar analysiert werden. Für das sCYMoV Hairpin Ribozym wurde schließlich in cis-Spaltungsreaktionen eine Zunahme der Geschwindigkeit mit Abnahme der Länge von Arm D beobachtet. Dies war der Fall in Anwesenheit der three-way junction in Arm A, nicht jedoch in ihrer Abwesenheit, wo Varianten mit unterschiedlichen Längen des Arms D ähnliche Spaltungsreaktionen aufwiesen. In Anwesenheit der three-way junction in Arm A war eine Reduzierung der Ligationsgeschwindigkeit zu beobachten, und bei ihrer Abwesenheit stieg diese mit der Länge von Arm D. Dies zeigt, dass sowohl die three-way junction in Arm A, als auch die Länge und Anzahl der bulges in Arm D die Reaktion des Hairpin Ribozyms aus sCYMoV beeinflussen, wobei sich Unterschiede in Vorwärts- und Rückreaktion auf die experimentellen Bedingungen zurückführen lassen. In zwei Serien wurde die zentrale five-way junction dieses Ribozyms durch verschiedene four-way junctions ersetzt. Die kinetischen Parameter der Selbstspaltung waren ähnlich für Varianten ohne Arm E auf, jedoch verlangsamt bei Varianten ohne Arm C. Dies zeigt, dass das sCYMoV Hairpin Ribozym auch um eine four-way junction gebildet werden kann, deren konstituierenden Helices jedoch nicht beliebig sind. In einem zweiten Projekt wurde die Konservierung von Hammerhead Ribozym-motiven, die bereits früher im Genom der Brassicacee A. thaliana gefunden worden waren, exemplarisch an zehn Mitgliedern dieser Familie untersucht. Da deren Genome nicht sequenziert sind, wurde PCR mit Primern angewandt, die für die A. thaliana Motive spezifisch waren. Damit konnten Ribozymmotive in allen untersuchten Brassicaceen außer B. nigra and B. oleracea gefunden werden. Diese gehören zu den sechs Brassica Pflanzen, für die der koreanische Botaniker U 1935 im “triangle of U” die genetische Verwandtschaft beschrieb. Darin ist B. carinata, für die Ribozymmotive gezeigt wurden, die Tochterspezies der Brassica Pflanzen ohne diese Motive. Dieser Widerspruch könnte darauf zurückzuführen sein, dass in der PCR unspezifische Primer genutzt wurden, oder aber die Motive aus B. carinata könnten ein Artefakt aus einer Luft-übertragenen Kontamination sein. Technische Schwierigkeiten in der Durchführung von Southern Blots, mit denen zwischen diesen Möglichkeiten unterschieden werden sollte, haben eine abschließende Antwort verhindert. Nach einer Optimierung der Methode sollte diese aber geeignet sein, diese Frage zu klären.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present a technique for the rapid and reliable evaluation of linear-functional output of elliptic partial differential equations with affine parameter dependence. The essential components are (i) rapidly uniformly convergent reduced-basis approximations — Galerkin projection onto a space WN spanned by solutions of the governing partial differential equation at N (optimally) selected points in parameter space; (ii) a posteriori error estimation — relaxations of the residual equation that provide inexpensive yet sharp and rigorous bounds for the error in the outputs; and (iii) offline/online computational procedures — stratagems that exploit affine parameter dependence to de-couple the generation and projection stages of the approximation process. The operation count for the online stage — in which, given a new parameter value, we calculate the output and associated error bound — depends only on N (typically small) and the parametric complexity of the problem. The method is thus ideally suited to the many-query and real-time contexts. In this paper, based on the technique we develop a robust inverse computational method for very fast solution of inverse problems characterized by parametrized partial differential equations. The essential ideas are in three-fold: first, we apply the technique to the forward problem for the rapid certified evaluation of PDE input-output relations and associated rigorous error bounds; second, we incorporate the reduced-basis approximation and error bounds into the inverse problem formulation; and third, rather than regularize the goodness-of-fit objective, we may instead identify all (or almost all, in the probabilistic sense) system configurations consistent with the available experimental data — well-posedness is reflected in a bounded "possibility region" that furthermore shrinks as the experimental error is decreased.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La desertificació és un problema de degradació de sòls de gran importància en regions àrides, semi-àrides i sub-humides, amb serioses conseqüències ambientals, socials i econòmiques com a resultat de l'impacte d'activitats humanes en combinació amb condicions físiques i medi ambientals desfavorables (UNEP, 1994). L'objectiu principal d'aquesta tesi va ser el desenvolupament d'una metodologia simple per tal de poder avaluar de forma precisa l'estat i l'evolució de la desertificació a escala local, a través de la creació d'un model anomenat sistema d'indicators de desertificació (DIS). En aquest mateix context, un dels dos objectius específics d'aquesta recerca es va centrar en l'estudi dels factors més importants de degradació de sòls a escala de parcel.la, comportant un extens treball de camp, analisi de laboratori i la corresponent interpretació i discussió dels resultats obtinguts. El segon objectiu específic es va basar en el desenvolupament i aplicació del DIS. L'àrea d'estudi seleccionada va ser la conca de la Serra de Rodes, un ambient típic Mediterràni inclòs en el Parc Natural del Cap de Creus, NE Espanya, el qual ha estat progressivament abandonat pels agricultors durant el segle passat. Actualment, els incendis forestals així com el canvi d'ús del sòl i especialment l'abandonament de terres són considerats els problemes ambientals més importants a l'àrea d'estudi (Dunjó et al., 2003). En primer lloc, es va realitzar l'estudi dels processos i causes de la degradació dels sòls a l'àrea d'interés. En base a aquest coneixement, es va dur a terme la identificació i selecció dels indicadors de desertificació més rellevants. Finalment, els indicadors de desertificació seleccionats a escala de conca, incloent l'erosió del sòl i l'escolament superficial, es van integrar en un model espaial de procés. Ja que el sòl és considerat el principal indicador dels processos d'erosió, segons la FAO/UNEP/UNESCO (1979), tant el paisatge original així com els dos escenaris d'ús del sòl desenvolupats, un centrat en el cas hipotétic del pas d'un incendi forestal, i l'altre un paisatge completament cultivat, poden ser ambients classificats sota baixa o moderada degradació. En comparació amb l'escenari original, els dos escenaris creats van revelar uns valors més elevats d'erosió i escolament superficial, i en particular l'escenari cultivat. Per tant, aquests dos hipotètic escenaris no semblen ser una alternativa sostenible vàlida als processos de degradació que es donen a l'àrea d'estudi. No obstant, un ampli ventall d'escenaris alternatius poden ser desenvolupats amb el DIS, tinguent en compte les polítiques d'especial interés per la regió de manera que puguin contribuir a determinar les conseqüències potencials de desertificació derivades d'aquestes polítiques aplicades en aquest escenari tan complexe espaialment. En conclusió, el model desenvolupat sembla ser un sistema força acurat per la identificació de riscs presents i futurs, així com per programar efectivament mesures per combatre la desertificació a escala de conca. No obstant, aquesta primera versió del model presenta varies limitacions i la necessitat de realitzar més recerca en cas de voler desenvolupar una versió futura i millor del DIS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The theta-logistic is a widely used generalisation of the logistic model of regulated biological processes which is used in particular to model population regulation. Then the parameter theta gives the shape of the relationship between per-capita population growth rate and population size. Estimation of theta from population counts is however subject to bias, particularly when there are measurement errors. Here we identify factors disposing towards accurate estimation of theta by simulation of populations regulated according to the theta-logistic model. Factors investigated were measurement error, environmental perturbation and length of time series. Large measurement errors bias estimates of theta towards zero. Where estimated theta is close to zero, the estimated annual return rate may help resolve whether this is due to bias. Environmental perturbations help yield unbiased estimates of theta. Where environmental perturbations are large, estimates of theta are likely to be reliable even when measurement errors are also large. By contrast where the environment is relatively constant, unbiased estimates of theta can only be obtained if populations are counted precisely Our results have practical conclusions for the design of long-term population surveys. Estimation of the precision of population counts would be valuable, and could be achieved in practice by repeating counts in at least some years. Increasing the length of time series beyond ten or 20 years yields only small benefits. if populations are measured with appropriate accuracy, given the level of environmental perturbation, unbiased estimates can be obtained from relatively short censuses. These conclusions are optimistic for estimation of theta. (C) 2008 Elsevier B.V All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study the effects of hydrostatic pressure (P) on aqueous solutions and gels of the block copolymer B20E610 (E, oxyethylene; B, oxybutylene; subscripts, number of repeats), by performing simultaneous small angle neutron scattering/pressure experiments. Micellar cubic gels were studied for 9.5 and 4.5 wt% B20E610 at T = 20-80 and 35-55 degrees C, respectively, while micellar isotropic solutions where Studied for 4.5 wt% B20E610 at T > 55 degrees C. We observed that the interplanar distance d(110) (cubic unit cell parameter a = root 2d(110)) decreases while the correlation length of the Cubic order (delta) increases, upon increasing P at a fixed T for 9.5 wt% B20E610. The construction of master Curves for d(110) and delta corresponding to 9.5 wt% B20E610 proved the correlation between changes in T and P. Neither d(110) and delta nor the cubic-isotropic phase transition temperature was affected by the applied pressure for 4.5 wt% B20E610. The dramatic contrast between the pressure-induced behavior observed for 9.5 and 4.5 wt% B20E610 suggests that pressure induced effects might be more effectively transmitted through samples that present wider domains of cubic structure order (9.5 wt% compared to 4.5 wt% B20E610).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A mechanism for amplification of mountain waves, and their associated drag, by parametric resonance is investigated using linear theory and numerical simulations. This mechanism, which is active when the Scorer parameter oscillates with height, was recently classified by previous authors as intrinsically nonlinear. Here it is shown that, if friction is included in the simplest possible form as a Rayleigh damping, and the solution to the Taylor-Goldstein equation is expanded in a power series of the amplitude of the Scorer parameter oscillation, linear theory can replicate the resonant amplification produced by numerical simulations with some accuracy. The drag is significantly altered by resonance in the vicinity of n/l_0 = 2, where l_0 is the unperturbed value of the Scorer parameter and n is the wave number of its oscillation. Depending on the phase of this oscillation, the drag may be substantially amplified or attenuated relative to its non-resonant value, displaying either single maxima or minima, or double extrema near n/l_0 = 2. Both non-hydrostatic effects and friction tend to reduce the magnitude of the drag extrema. However, in exactly inviscid conditions, the single drag maximum and minimum are suppressed. As in the atmosphere friction is often small but non-zero outside the boundary layer, modelling of the drag amplification mechanism addressed here should be quite sensitive to the type of turbulence closure employed in numerical models, or to computational dissipation in nominally inviscid simulations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

To optimise the placement of small wind turbines in urban areas a detailed understanding of the spatial variability of the wind resource is required. At present, due to a lack of observations, the NOABL wind speed database is frequently used to estimate the wind resource at a potential site. However, recent work has shown that this tends to overestimate the wind speed in urban areas. This paper suggests a method for adjusting the predictions of the NOABL in urban areas by considering the impact of the underlying surface on a neighbourhood scale. In which, the nature of the surface is characterised on a 1 km2 resolution using an urban morphology database. The model was then used to estimate the variability of the annual mean wind speed across Greater London at a height typical of current small wind turbine installations. Initial validation of the results suggests that the predicted wind speeds are considerably more accurate than the NOABL values. The derived wind map therefore currently provides the best opportunity to identify the neighbourhoods in Greater London at which small wind turbines yield their highest energy production. The model does not consider street scale processes, however previously derived scaling factors can be applied to relate the neighbourhood wind speed to a value at a specific rooftop site. The results showed that the wind speed predicted across London is relatively low, exceeding 4 ms-1 at only 27% of the neighbourhoods in the city. Of these sites less than 10% are within 10 km of the city centre, with the majority over 20 km from the city centre. Consequently, it is predicted that small wind turbines tend to perform better towards the outskirts of the city, therefore for cities which fit the Burgess concentric ring model, such as Greater London, ‘distance from city centre’ is a useful parameter for siting small wind turbines. However, there are a number of neighbourhoods close to the city centre at which the wind speed is relatively high and these sites can only been identified with a detailed representation of the urban surface, such as that developed in this study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose first, a simple task for the eliciting attitudes toward risky choice, the SGG lottery-panel task, which consists in a series of lotteries constructed to compensate riskier options with higher risk-return trade-offs. Using Principal Component Analysis technique, we show that the SGG lottery-panel task is capable of capturing two dimensions of individual risky decision making i.e. subjects’ average risk taking and their sensitivity towards variations in risk-return. From the results of a large experimental dataset, we confirm that the task systematically captures a number of regularities such as: A tendency to risk averse behavior (only around 10% of choices are compatible with risk neutrality); An attraction to certain payoffs compared to low risk lotteries, compatible with over-(under-) weighting of small (large) probabilities predicted in PT and; Gender differences, i.e. males being consistently less risk averse than females but both genders being similarly responsive to the increases in risk-premium. Another interesting result is that in hypothetical choices most individuals increase their risk taking responding to the increase in return to risk, as predicted by PT, while across panels with real rewards we see even more changes, but opposite to the expected pattern of riskier choices for higher risk-returns. Therefore, we conclude from our data that an “economic anomaly” emerges in the real reward choices opposite to the hypothetical choices. These findings are in line with Camerer's (1995) view that although in many domains, paid subjects probably do exert extra mental effort which improves their performance, choice over money gambles is not likely to be a domain in which effort will improve adherence to rational axioms (p. 635). Finally, we demonstrate that both dimensions of risk attitudes, average risk taking and sensitivity towards variations in the return to risk, are desirable not only to describe behavior under risk but also to explain behavior in other contexts, as illustrated by an example. In the second study, we propose three additional treatments intended to elicit risk attitudes under high stakes and mixed outcome (gains and losses) lotteries. Using a dataset obtained from a hypothetical implementation of the tasks we show that the new treatments are able to capture both dimensions of risk attitudes. This new dataset allows us to describe several regularities, both at the aggregate and within-subjects level. We find that in every treatment over 70% of choices show some degree of risk aversion and only between 0.6% and 15.3% of individuals are consistently risk neutral within the same treatment. We also confirm the existence of gender differences in the degree of risk taking, that is, in all treatments females prefer safer lotteries compared to males. Regarding our second dimension of risk attitudes we observe, in all treatments, an increase in risk taking in response to risk premium increases. Treatment comparisons reveal other regularities, such as a lower degree of risk taking in large stake treatments compared to low stake treatments and a lower degree of risk taking when losses are incorporated into the large stake lotteries. Results that are compatible with previous findings in the literature, for stake size effects (e.g., Binswanger, 1980; Antoni Bosch-Domènech & Silvestre, 1999; Hogarth & Einhorn, 1990; Holt & Laury, 2002; Kachelmeier & Shehata, 1992; Kühberger et al., 1999; B. J. Weber & Chapman, 2005; Wik et al., 2007) and domain effect (e.g., Brooks and Zank, 2005, Schoemaker, 1990, Wik et al., 2007). Whereas for small stake treatments, we find that the effect of incorporating losses into the outcomes is not so clear. At the aggregate level an increase in risk taking is observed, but also more dispersion in the choices, whilst at the within-subjects level the effect weakens. Finally, regarding responses to risk premium, we find that compared to only gains treatments sensitivity is lower in the mixed lotteries treatments (SL and LL). In general sensitivity to risk-return is more affected by the domain than the stake size. After having described the properties of risk attitudes as captured by the SGG risk elicitation task and its three new versions, it is important to recall that the danger of using unidimensional descriptions of risk attitudes goes beyond the incompatibility with modern economic theories like PT, CPT etc., all of which call for tests with multiple degrees of freedom. Being faithful to this recommendation, the contribution of this essay is an empirically and endogenously determined bi-dimensional specification of risk attitudes, useful to describe behavior under uncertainty and to explain behavior in other contexts. Hopefully, this will contribute to create large datasets containing a multidimensional description of individual risk attitudes, while at the same time allowing for a robust context, compatible with present and even future more complex descriptions of human attitudes towards risk.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lipid cubic phases are complex nanostructures that form naturally in a variety of biological systems, with applications including drug delivery and nanotemplating. Most X-ray scattering studies on lipid cubic phases have used unoriented polydomain samples as either bulk gels or suspensions of micrometer-sized cubosomes. We present a method of investigating cubic phases in a new form, as supported thin films that can be analyzed using grazing incidence small-angle X-ray scattering (GISAXS). We present GISAXS data on three lipid systems: phytantriol and two grades of monoolein (research and industrial). The use of thin films brings a number of advantages. First, the samples exhibit a high degree of uniaxial orientation about the substrate normal. Second, the new morphology allows precise control of the substrate mesophase geometry and lattice parameter using a controlled temperature and humidity environment, and we demonstrate the controllable formation of oriented diamond and gyroid inverse bicontinuous cubic along with lamellar phases. Finally, the thin film morphology allows the induction of reversible phase transitions between these mesophase structures by changes in humidity on subminute time scales, and we present timeresolved GISAXS data monitoring these transformations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In both the observational record and atmosphere-ocean general circulation model (AOGCM) simulations of the last ∼∼ 150 years, short-lived negative radiative forcing due to volcanic aerosol, following explosive eruptions, causes sudden global-mean cooling of up to ∼∼ 0.3 K. This is about five times smaller than expected from the transient climate response parameter (TCRP, K of global-mean surface air temperature change per W m−2 of radiative forcing increase) evaluated under atmospheric CO2 concentration increasing at 1 % yr−1. Using the step model (Good et al. in Geophys Res Lett 38:L01703, 2011. doi:10.​1029/​2010GL045208), we confirm the previous finding (Held et al. in J Clim 23:2418–2427, 2010. doi:10.​1175/​2009JCLI3466.​1) that the main reason for the discrepancy is the damping of the response to short-lived forcing by the thermal inertia of the upper ocean. Although the step model includes this effect, it still overestimates the volcanic cooling simulated by AOGCMs by about 60 %. We show that this remaining discrepancy can be explained by the magnitude of the volcanic forcing, which may be smaller in AOGCMs (by 30 % for the HadCM3 AOGCM) than in off-line calculations that do not account for rapid cloud adjustment, and the climate sensitivity parameter, which may be smaller than for increasing CO2 (40 % smaller than for 4 × CO2 in HadCM3).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fire is an integral disturbance shaping forest community dynamics over large scales. However, understanding the relationship between fire induced habitat disturbance and biodiversity remain equivocal. Ecological theories including the intermediate disturbance hypothesis (IDH) and the habitat accommodation model (HAM) offer predictive frameworks that could explain faunal responses to fire disturbances. We used an 80 year post-fire chronosequence to investigate small reptile community responses to fires in temperate forests across 74 sites. First, we evaluated if changes in species richness, abundance and evenness post-fire followed trends of prior predictions, including the IDH. Second, using competing models of fine scale habitat elements we evaluated the specific ways which fire influenced small reptiles. Third, we evaluated support for the HAM by examining compositional changes of reptile community post-fire. Relative abundance was positively correlated to age post-fire while richness and evenness showed no associations. The abundance trend was as expected based on the prior prediction of sustained population increase post-disturbance, but the trend for richness contradicted the prediction of highest diversity at intermediate levels of disturbance (according to IDH). Abundance changes were driven mainly by changes in overstorey, ground layer, and shelter, while richness and evenness did not associate with any vegetation parameter. Community composition was not strongly correlated to age since fire, thus support for the HAM was weak. Overall, in this ecosystem, frequent fire disturbances can be detrimental to small reptiles. Future studies utilizing approaches based on species traits could enhance our understanding of biodiversity patterns post-disturbance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prognosis, such as predicting mortality, is common in medicine. When confronted with small numbers of samples, as in rare medical conditions, the task is challenging. We propose a framework for classification with data with small numbers of samples. Conceptually, our solution is a hybrid of multi-task and transfer learning, employing data samples from source tasks as in transfer learning, but considering all tasks together as in multi-task learning. Each task is modelled jointly with other related tasks by directly augmenting the data from other tasks. The degree of augmentation depends on the task relatedness and is estimated directly from the data. We apply the model on three diverse real-world data sets (healthcare data, handwritten digit data and face data) and show that our method outperforms several state-of-the-art multi-task learning baselines. We extend the model for online multi-task learning where the model parameters are incrementally updated given new data or new tasks. The novelty of our method lies in offering a hybrid multi-task/transfer learning model to exploit sharing across tasks at the data-level and joint parameter learning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this study was to verify the breeding potential of the maize composite Isanao VF1 in the second growing season. One hundred and fifty half-sib progenies were evaluated of spacing of 0.45 m, densities of 57,778 and 80,000 plants ha(-1), in a randomized block design with three replications. Gains of 16.0 and 19.2% were estimated for grain Yield, H. I and 10.5% for prolificacy and 12.3 and 12.9% for ear height, respectively, at 57,778 and 80,000 plants ha(-1). The heritabilities for plant height, ear height and grain yield were 65.2 and 61.3%, 64.3 and 66.9% and 53.5 and 63.3%, respectively, confirming the potential for breeding at both densities. The absence of progeny by density interaction indicates that no further selection programs are necessary. The occurrence of segregation for modifier genes for height suggests stabilizing selection based on ear height.