926 resultados para realized range
Resumo:
Large carpenter bees (Hymenoptera: Apidae: Xylocopa) have traditionally been thought of as exhibiting solitary or occasionally communal colony social organization. However, studies have demonstrated more complex fonns of social behaviour in this genus. In this document, I examine elements ofbehaviour and life history in a North American species at the northern extreme of its range. Xylocopa virginica was found to be socially polymorphic with both solitary and meta-social or semi-social nests in the same population. In social nests, there is no apparent benefit from additional females which do not perfonn significant work or guarding. I found that the timing of life-history events varies between years, yet foraging effort only differed in the coldest and wettest year of2004 the study. Finally, I that male X virginica exhibit female defence polygyny, with resident and satellite males. Resident males maintain their territories through greater aggression relative to satellites.
Resumo:
The relative ease tha t a person experiences while performing cognitive operations, namely processing fluency, affects a broad range of judgments such as product evaluations. For example, an increase in fluency through repeated exposure to product packages enhances attitude toward the brand (Janiszewski 1993). This thesis examined the effect of fluency on taste perception and demonstrated where the fluency created an advantage or disfluency created a disadvantage for taste evaluations. Experiment 1 examined the effect of perceptual fluency on taste perception. It was found that perceptual disfluency derived from r eading the labels (i.e., font) lowered taste evaluations only when it was experienced be for the sensory experience. Experiment 2 examined the effect of linguistic fluency (i.e., pronunciation) on taste perception. However there was no evidence for the effect of linguistic fluency on taste perception. Thus, it is concluded that either the effect size of linguistic fluency is lower than perceptual fluency, or participants discounted their linguistic fluency experience because they realized that the brand names used in Experiment 2 were not real brand names. To sum up, it was found that perceptual disfluency created by presenting a difficult to read product-related information created a disadvantage for taste perception compared to when no information was presented. Therefore, this thesis provides the first evidence for the effect of the metacognitive cue of fluency on sensory evaluations.
Resumo:
Light brown sediment with clasts ranging from small to medium in size. The clast shape ranges from sub-angular to sub-rounded. Lineations are abundant throughout the sample. Light folding structures can also be seen in this sample. There are minor amounts of grain crushing/stacking also present.
Resumo:
This paper develops a model of short-range ballistic missile defense and uses it to study the performance of Israel’s Iron Dome system. The deterministic base model allows for inaccurate missiles, unsuccessful interceptions, and civil defense. Model enhancements consider the trade-offs in attacking the interception system, the difficulties faced by militants in assembling large salvos, and the effects of imperfect missile classification by the defender. A stochastic model is also developed. Analysis shows that system performance can be highly sensitive to the missile salvo size, and that systems with higher interception rates are more “fragile” when overloaded. The model is calibrated using publically available data about Iron Dome’s use during Operation Pillar of Defense in November 2012. If the systems performed as claimed, they saved Israel an estimated 1778 casualties and $80 million in property damage, and thereby made preemptive strikes on Gaza about 8 times less valuable to Israel. Gaza militants could have inflicted far more damage by grouping their rockets into large salvos, but this may have been difficult given Israel’s suppression efforts. Counter-battery fire by the militants is unlikely to be worthwhile unless they can obtain much more accurate missiles.
Resumo:
Receipt from George Lloyd, dealer in stoves and ranges, St. Catharines for range and pipes, July 1, 1887.
Resumo:
In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.
Resumo:
This paper derives the ARMA representation of integrated and realized variances when the spot variance depends linearly on two autoregressive factors, i.e., SR SARV(2) models. This class of processes includes affine, GARCH diffusion, CEV models, as well as the eigenfunction stochastic volatility and the positive Ornstein-Uhlenbeck models. We also study the leverage effect case, the relationship between weak GARCH representation of returns and the ARMA representation of realized variances. Finally, various empirical implications of these ARMA representations are considered. We find that it is possible that some parameters of the ARMA representation are negative. Hence, the positiveness of the expected values of integrated or realized variances is not guaranteed. We also find that for some frequencies of observations, the continuous time model parameters may be weakly or not identified through the ARMA representation of realized variances.
Resumo:
This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.
Resumo:
Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.
Resumo:
L’objectif principal du présent travail de recherche est d’établir un lien entre les proverbes (refranes) du Quichotte et l’enseignement de l’espagnol comme langue étrangère (ELE). En premier lieu, afin de mieux définir l’utilisation des parémies à travers les siècles, nous observons leur origine en lien avec l’oralité et la culture écrite, liée avec la Bible. De plus, nous considérons nécessaire de définir de manière claire les termes utilisés en parémiologie, tels que la parémie, le refrán espagnol et le proverbe. Cette précision terminologique est importante dans le processus d’apprentissage d’une nouvelle langue, par exemple afin de ne pas faire de fausses associations entre la langue maternelle et la langue apprise. La définition du refrán suit une matrice de traits essentiels ou optionnels. De plus, afin d’actualiser ces notions, nous présentons l’espace qu’occupent les proverbes ou les refranes de nos jours. Face au manque d’études sur l’utilisation des proverbes au Québec, nous avons réalisé un sondage parmi les étudiants québécois de cégeps afin d’observer leur opinion et son emploi. En ce qui a lieu à la relation directe entre les proverbes et l’enseignement de l’espagnol, nous remarquons que ce type d’énoncé n’est pas introduit en profondeur dans les documents officiels, tels que le Cadre européen commun de référence (2002), le Plan curricular del Instituto Cervantes (2005) et le Espagnol, langue tierce du Ministère de l’éducation, du loisir et du sport de Québec (MELS). Cette présence peu active est soulignée par le peu d’importance qui leur est attribuée dans les manuels d’enseignement. L’inclusion de la littérature en enseignement d’ELE, comme force didactique, a été généralement peu considérée. Le corpus de notre recherche, sélectionné du roman de Don Quichotte de la Manche, nous est utile pour connaître le lien entre les refranes, la littérature et ELE, présentant les proverbes comme un type de littérature en soi, grâce à un éventail d’activités, avec l’objectif qu’elles soient reconsidérées à sa juste valeur, dès les premiers niveaux d’enseignement. Mots-clés: Enseignement de l’espagnol comme langue étrangère (ELE), Littérature, Don Quichotte, proverbes (le refrán espagnol), activités
Resumo:
Différents dessins d’implants de prothèse totale de genou (PTG) sont utilisés en pratique clinique et chacun présente des caractéristiques biomécaniques spécifiques. Aucun implant n’a réussi à ce jour à reproduire parfaitement la biomécanique du genou naturel. Les objectifs de cette étude sont de comparer les résultats cliniques et biomécaniques tridimensionnels (3D) de deux types de PTG chez le même patient, puis de comparer la cinématique des PTG à celle d’un groupe de genoux asymptomatiques. Une cohorte de quinze patients avec un implant traditionnel dans un genou et un implant de nouvelle génération permettant un pivot dans le genou contralatéral a été étudiée. Le groupe contrôle était composé de trente-cinq genoux asymptomatiques. L’analyse de la cinématique 3D a été réalisée avec l’outil KneeKG (Emovi Inc. Canada) lors de la marche sur tapis roulant. L’évaluation clinique comprenait l’amplitude de mouvement ainsi que les questionnaires de perception articulaire, KOOS, Womac et SF-12. La comparaison de la cinématique des deux types de PTG a démontré quelques différences statistiquement significatives dans les plans sagittal et frontal alors que la comparaison des PTG et des genoux asymptomatiques a révélé plusieurs différences significatives dans les trois plans. Les scores cliniques des deux PTG ne comportaient pas de différence significative. Dans notre cohorte de patients, le design de l’implant a eu peu d’influence sur les résultats biomécaniques et cliniques. Les PTG n’ont pas reproduit une cinématique normale de genou. Beaucoup de travail et de recherche dans le développement de nouveaux implants sont encore nécessaires afin d’améliorer les résultats cliniques et de mieux reproduire la cinématique du genou naturel.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Full Text / Article complet