393 resultados para Mesure de la performance


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Alors que d’énormes efforts sont mis de l’avant pour mettre en place des stratégies thérapeutiques contre l’infection au VIH-1, il est nécessaire de mieux cerner les déterminants viraux qui aideront à l’efficacité de celles-ci. En ce sens, une volumineuse littérature scientifique suggère que les anticorps contre le VIH-1 possédant une capacité à induire une réponse effectrice dépendante de leur portion Fc puissent jouer un rôle important dans la prévention de l’infection et dans la progression de la maladie. Cependant, peu d’information est disponible concernant les déterminants reconnus par ces anticorps et comment le virus s’en protège. Le but des travaux présentés dans cette thèse est donc d’élucider les mécanismes viraux contrôlant la reconnaissance des cellules infectées par ces anticorps capables d’induire une réponse effectrice. De par les corrélats de protection identifiés au cours de l’essai vaccinal RV144, les travaux présentés ici se concentrent sur la réponse cytotoxique dépendante des anticorps (ADCC), puisqu’il s’agit d’une réponse effectrice suggérée pour avoir joué un rôle dans la protection observée dans le RV144, seul essai vaccinal anti-VIH à avoir démontré un certain degré de protection. De plus, plusieurs anticorps capables d’induire cette réponse contre le VIH sont connus pour reconnaître les glycoprotéines de surface du virus (Env) dans une conformation dite ouverte, c’est-à-dire la conformation adoptée lors de la liaison d’Env avec son récepteur CD4 (épitopes CD4i). Nous avons mis au point deux techniques in vitro permettant d’étudier ces changements de conformation ainsi que leur impact sur la réponse ADCC. Les techniques mises au point, un ÉLISA sur base cellulaire pour mesurer les changements de conformation d’Env ainsi que la mesure de la réponse ADCC par cytométrie en flux, nous ont permis de démontrer comment le virus empêche l’exposition des épitopes d’Env CD4i. L’activité simultanée des protéines accessoires virales Nef et Vpu sur le retrait du récepteur CD4 de la surface des cellules infectées et l’inhibition du facteur de restriction Tétherine / BST-2 par Vpu contrôlent à la fois les niveaux d’Env et de CD4 à la surface cellulaire et donc modulent l’interaction Env-CD4 et ultimement la susceptibilité à la réponse ADCC contre les épitopes CD4i reconnus par des anticorps hautement prévalents lors de l’infection au VIH. Également, nous démontrons comment de petits composés mimant la liaison de CD4 sur Env sont capables de forcer l’exposition des épitopes CD4i, même en présence des protéines Nef et Vpu, et donc d’augmenter la susceptibilité des cellules infectées à la réponse ADCC. Une autre découverte présentée ici est la démonstration que la portion soluble d’Env produite par les cellules infectées peut interagir avec le récepteur CD4 des cellules non-infectées avoisinantes et induire leur reconnaissance et élimination par la réponse ADCC contre Env. Somme toute, la modulation de la réponse ADCC par l’interaction Env–CD4 représente un important pilier de la relation hôte – pathogène du VIH-1 de la perspective des réponses Fc-dépendantes. Les travaux présentés dans cette thèse ont le potentiel d’être utilisés dans l’élaboration de nouvelles stratégies antivirales tout en élargissant les connaissances fondamentales de cette interaction hôte – pathogène.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En partant de la documentation filmique de deux performances (Da ist eine kriminelle Berührung in der Kunst [Ulay, 1976] et Data [Gagnon, 2010]) qui a comme particularité commune d’avoir été soumise à des manœuvres cinématographiques, ce mémoire élabore une théorisation permettant de les penser autrement qu’en tant que documents, mais en tant que films, et plus précisément en tant qu’œuvres esthétiques complémentaires à la performance d’origine. Tombant dans une béance théorique par le fait de leur hybridité supposément contradictoire (performance, éphémère/cinéma, préservation), les deux films nous invitent à penser une conceptualisation renouvelée de la performance. Depuis cette perspective, nous démontrerons que, si le geste de performance est lui-même enchâssé dans le geste cinématographique, c’est en fonction de cette co-constitution des œuvres qu’il faut les aborder : en plus de référer à un contenu performatif, ces films performent une réalité inachevée, en termes de classification théorique mais aussi en termes de valeur politique. Nous verrons finalement qu’à travers le thème fédérateur du détournement artistique, pensé dans un rapport critique des institutions culturelles, les deux œuvres ont pour visée une transformation qui a pour but l’établissement de nouveaux rapports sociaux et politiques. Ultimement, nous défendrons que cette intervention à même une structure sociale établie ne soit possible que si la performance d’origine est présentée cinématographiquement, par le concept du geste cinématographique de performance.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le corps demeure un sujet d'études en vogue de nos jours. Une multitude d'articles et d'ouvrages abordent la représentation du corps au cinéma. Notre étude se concentre précisément sur le corps du héros du film d'action américain pendant la période classique des années 80. Il sera ainsi question de la musculature hyperbolique d’Arnold Schwarzenegger et de Sylvester Stallone. L'hypothèse de notre recherche est que la mise en scène du physique de l’acteur dans le film d’action demeure représentative de la conception héroïque de son époque. Premièrement, nous explorons la construction héroïque spécifique au film d'action classique. Nous posons que cette figure de héros américain évoque une glorification de la corporalité qui renvoie à la conception mythologique du héros occidental, celle-ci relative à notre imaginaire collectif. Une attention particulière sur la performance de Stallone dans son rôle de John Rambo servira pour appuyer notre réflexion. Deuxièmement, une analyse de la représentation du corps de Schwarzenegger dans ses premiers rôles nous permettra de vérifier à quel point le physique de cet acteur correspond à un nouveau paradigme, un nouveau modèle corporel pour incarner une figure héroïque au cinéma. Troisièmement, nous considérons le contexte socio-politique américain pendant les années 80 afin de constater l'influence de la société dans la construction d'une figure héroïque au cinéma. Une étude de la figure héroïque « reaganienne » sera développée en fonction de la comparaison de ces deux stars. Nous pourrons appréhender comment la représentation du corps dans le film d'action américain peut contribuer à la construction sociale du corps dans notre société occidentale contemporaine.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introduction : Malgré leur état non-prolifératif in vivo, les cellules endothéliales cornéennes (CEC) peuvent être amplifiées in vitro. Leur transplantation subséquente par injection intracamérale pourrait surmonter la pénurie de tissus associée à l’allo-greffe traditionnelle – l’unique traitement définitif disponible pour les endothéliopathies cornéennes. Objectif : Évaluer la fonctionnalité d’un endothélium cornéen reconstitué par injection de CEC dans la chambre antérieure du félin. Méthodes : Les yeux droits de 16 animaux ont été opérés. Huit ont été désendothélialisés centralement avec injection de 2x10e5 (n=4) ou 1x10e6 (n=4) CEC félines supplémentées avec Y-27632 et marquées avec SP-DiOC18(3). Deux ont été désendothélialisés complètement et injectés avec 1x10e6 CEC et Y-27632. Six contrôles ont été désendothélialisés centralement (n=3) ou complètement (n=3) et injectés avec Y-27632 sans CEC. La performance clinique, l’intégrité anatomique, le phénotype fonctionnel et l’expression de SP-DiOC18(3) du nouvel endothélium ont été étudiés. Résultats : Les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement ont réussi le mieux cliniquement. Les contrôles désendothélialisés complètement sont restés opaques. L’histopathologie a révélé une monocouche endothéliale fonctionnelle dans les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement, une multicouche endothéliale non-fonctionnelle dans les cornées désendothélialisées centralement et greffées avec 1x10e6 CEC, et un endothélium fibrotique non-fonctionnel dans les cornées désendothélialisées complètement. L’expression de SP-DiOC18(3) était rare dans les greffes. Conclusion : La thérapie par injection cellulaire a reconstitué un endothélium partiellement fonctionnel, auquel les CEC injectées n’ont contribué que peu. L’injection de Y-27632 sans CEC a reconstitué l’endothélium le plus sain. Des études additionnelles investiguant l’effet thérapeutique de Y-27632 seul sont justifiées.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le succès écologique des organismes dépend principalement de leur phénotype. Une composante important du phénotype est la morphologie fonctionnelle car elle influence la performance d’un organisme donné dans un milieu donné et donc reflète son écologie. Des disparités dans la morphologie fonctionnelle ou dans le développement entre espèces peuvent donc mener à des différences écologiques. Ce projet évalue le rôle des mécanismes de variation morphologique dans la production de différences écologiques entre espèces au sein des poissons hybrides du complexe Chrosomus eos-neogaeus. En utilisant la microtomodensitométrie à rayons X et la morphométrie géométrique 3D, la forme des éléments des mâchoires est décrite pour comparer la variation morphologique et les différences développementales entre les membres du complexe C. eos neogaeus. Les hybrides présentent autant de variation phénotypique que les espèces parentales et présentent des phénotypes nouveaux, dit transgressifs. Les hybrides présentent aussi des différences marquées avec les espèces parentales dans leur allométrie et dans leur intégration phénotypique. Finalement, ceux-ci semblent être plastiques et en mesure de modifier leur phénotype pour occuper plusieurs environnements. L’entièreté de ces résultats suggère que des changements dans le développement des hybrides entraînent une différenciation phénotypique et écologique avec les espèces parentales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Motivé par l’évolution de la production architecturale durable dans les pays d’Amérique latine, et plus particulièrement en Colombie, mon projet de recherche porte sur l’adaptation de l’architecture à ce nouveau contexte. L’approche architecturale traditionnelle à la prise en compte de l’énergie et du climat est l’architecture bioclimatique : reproduite à partir de connaissances et techniques ancestrales remontant à la conception de l’abri, cette dernière étudie les phénomènes physiques associés au confort thermique afin de les reproduire dans une nouvelle architecture. De nouvelles méthodes d’évaluation environnementale se sont développées dans les dernières décennies pour améliorer l’intégration environnementale des bâtiments. Ces méthodes privilégient la normalisation des solutions et utilisent des systèmes de certification pour reconnaître la performance environnementale et énergétique des bâtiments. Le résultat visé est la conformité aux standards internationaux de durabilité. Ce mémoire porte sur l’analyse comparative de l’architecture bioclimatique et de la certification environnementale à partir de la structure des sujets abordés par LEED, une des méthodes les plus connues d’une telle certification. Cette comparaison permet de constater que les deux approches sont motivées par les mêmes préoccupations environnementales mais que leurs méthodes d’intégration de ces préoccupations diffèrent, en particulier quant à la prise en compte des facteurs locaux et globaux.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Evidence of falling wages in Catholic cities and rising wages in Protestant cities between 1500 and 1750, during the spread of literacy in the vernacular, is inconsistent with most theoretical models of economic growth. In The Protestant Ethic, Weber suggested an alternative explanation based on culture. Here, a theoretical model confirms that a small change in the subjective cost of cooperating with strangers can generate a profound transformation in trading networks. In explaining urban growth in early-modern Europe, specifications compatible with human-capital versions of the neoclassical model and endogenous-growth theory are rejected in favor of a “small-world” formulation based on the Weber thesis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

By reporting his satisfaction with his job or any other experience, an individual does not communicate the number of utils that he feels. Instead, he expresses his posterior preference over available alternatives conditional on acquired knowledge of the past. This new interpretation of reported job satisfaction restores the power of microeconomic theory without denying the essential role of discrepancies between one’s situation and available opportunities. Posterior human wealth discrepancies are found to be the best predictor of reported job satisfaction. Static models of relative utility and other subjective well-being assumptions are all unambiguously rejected by the data, as well as an \"economic\" model in which job satisfaction is a measure of posterior human wealth. The \"posterior choice\" model readily explains why so many people usually report themselves as happy or satisfied, why both younger and older age groups are insensitive to current earning discrepancies, and why the past weighs more heavily than the present and the future.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.