969 resultados para explanatory variables
Resumo:
T-cell mediated immune response (CMI) hasbeen widely studied in relation to individual andfitness components in birds. However, few studieshave simultaneously examined individual and socialfactors and habitat-mediated variance in theimmunity of chicks and adults from the samepopulation and in the same breeding season. Weinvestigated ecological and physiological variancein CMI of male and female nestlings and adults in abreeding population of Cory's Shearwaters(Calonectrisdiomedea) in theMediterranean Sea. Explanatory variables includedindividual traits (body condition, carbon andnitrogen stable isotope ratios, plasma totalproteins, triglycerides, uric acid, osmolarity,β-hydroxy-butyrate, erythrocyte meancorpuscular diameter, hematocrit, andhemoglobin) and burrow traits(temperature, isolation, and physicalstructure). During incubation, immune responseof adult males was significantly greater than thatof females. Nestlings exhibited a lower immuneresponse than adults. Ecological and physiologicalfactors affecting immune response differed betweenadults and nestlings. General linear models showedthat immune response in adult males was positivelyassociated with burrow isolation, suggesting thatmales breeding at higher densities suffer immunesystem suppression. In contrast, immune response inchicks was positively associated with bodycondition and plasma triglyceride levels.Therefore, adult immune response appears to beassociated with social stress, whereas a trade-offbetween immune function and fasting capability mayexist for nestlings. Our results, and those fromprevious studies, provide support for anasymmetrical influence of ecological andphysiological factors on the health of differentage and sex groups within a population, and for theimportance of simultaneously considering individualand population characteristics in intraspecificstudies of immune response.
Resumo:
Several empirical studies have analyzed the factors that influence local privatization. Variables related to fiscal stress, cost reduction, political processes and ideological attitudes are the most common explanatory variables used in these studies. In this paper, we add to this literature by examining the influence of transaction costs and political factors on local governments’ choices through new variables. In addition to this, we consider the role of additional aspects, such as intermunicipal cooperation as a potential alternative to privatization in order to exploit scale economies or scope economies. We consider two relevant services: solid waste collection and water distribution. Results from our estimates show that privatization (that is, contracting out to a private firm) is less common for water distribution than for solid waste collection. Higher transaction costs in water distribution are consistent with this finding. Furthermore, we find that municipalities with a conservative ruling party privatize more often regardless of the ideological orientation of the constituency. This shows that those political interests able to influence local elections are more important in determining the form of delivery than is the basic ideological stance of the constituency. Finally, we find that intermunicipal cooperation is an alternative to local privatization.
Resumo:
The study of price risk management concerning high grade steel alloys and their components was conducted. This study was focused in metal commodities, of which nickel, chrome and molybdenum were in a central role. Also possible hedging instruments and strategies for referred metals were studied. In the literature part main themes are price formation of Ni, Cr and Mo, the functioning of metal exchanges and main hedging instruments for metal commodities. This section also covers how micro and macro variables may affect metal prices from the viewpoint of short as well as longer time period. The experimental part consists of three sections. In the first part, multiple regression model with seven explanatory variables was constructed to describe price behavior of nickel. Results were compared after this with information created with comparable simple regression model. Additionally, long time mean price reversion of nickel was studied. In the second part, theoretical price of CF8M alloy was studied by using nickel, ferro-chrome and ferro-molybdenum as explanatory variables. In the last section, cross hedging possibilities for illiquid FeCr -metal was studied with five LME futures. Also this section covers new information concerning possible forthcoming molybdenum future contracts as well. The results of this study confirm, that linear regression models which are based on the assumption of market rationality, are not able to reliably describe price development of metals at issue. Models fulfilling assumptions for linear regression may though include useful information of statistical significant variables which have effect on metal prices. According to the experimental part, short futures were found to incorporate the most accurate information concerning the price movements in the future. However, not even 3M futures were able to predict turning point in the market before the faced slump. Cross hedging seemed to be very doubtful risk management strategy for illiquid metals, because correlations coefficients were found to be very sensitive for the chosen time span.
Resumo:
Although social capital and health have been extensively studied during the last decade, there are still open issues in current empirical research. These concern for instance the measurement of the concept in different contexts, as well as the association between different types of social capital and different dimensions of health. The present thesis addressed these questions. The general aim was to promote the understanding of social capital and health by investigating the oldest old and the two major language groups in Finland, Swedish- and Finnish-speakers. Another aim was to contribute to the discussion on methodological issues in social capital and health research. The present thesis investigated two empirical data sets, Umeå 85+ and Health 2000. The Umeå 85+ study was a cross-sectional study of 163 individuals aged 85, 90, and 95 or older, living in the municipality of Umeå, Sweden, in the year of 2000. The Health 2000 survey was a national study of 8,028 persons aged 30 or above carried out in Finland in 2000-2001. Different indicators of structural (e.g. social contacts) and cognitive (e.g. trust) social capital, as well as health indicators were used as variables in the analyses. The Umeå 85+ data set was analyzed with factor analysis, as well as univariate and multivariate analysis of variance. The Health 2000 data was analyzed with logistic regression techniques. The results showed that the Swedish-speakers in the Finnish data set Health 2000 had consistently higher prevalence of social capital compared to the Finnish-speakers even after controlling for central sociodemographic variables. The results further showed that even if the language group differences in health were small, the Swedishspeakers experienced in general better self-reported health compared with the Finnish-speakers. Common sociodemographic variables could not explain these observed differences in health. The results imply that social capital is often, but not always, associated with health. This was clearly seen in the Umeå 85+ data set where only one health indicator (depressive symptoms) was associated with structural social capital among the oldest old. The results based on the analysis of the Health 2000 survey demonstrated that the cognitive component of social capital was associated with self-rated health and psychological health rather than with participation in social activities and social contacts. In addition, social capital statistically reduced the health advantage especially for Swedish-speaking men, indicating that high prevalence of social capital may promote health. Finally, the present thesis also discussed the issue of methodological challenges faced with when analyzing social capital and health. It was suggested that certain components of social capital such as bonding and bridging social capital may be more relevant than structural and cognitive components when investigating social capital among the two language groups in Finland. The results concerning the oldest old indicated that the structural aspects of social capital probably reflect current living conditions, whereas cognitive social capital reflects attitudes and traits often acquired decades earlier. This is interpreted as an indication of the fact that structural and cognitive social capital are closely related yet empirically two distinctive concepts. Taken together, some components of social capital may be more relevant to study than others depending on which population group and age group is under study. The results also implied that the choice of cut-off point of dichotomization of selfrated health has an impact on the estimated effects of the explanatory variables. When the whole age interval, 35-64 years, was analyzed with logistic regression techniques the choice of cut-off point did not matter for the estimated effects of marital status and educational level. The results changed, however, when the age interval was divided into three shorter intervals. If self-rated health is explored using wide age intervals that do not account for age-dependent covariates there is a risk of drawing misleading conclusions. In conclusion, the results presented in the thesis suggest that the uneven distribution of social capital observed between the two language groups in Finland are of importance when trying to further understand health inequalities that exist between Swedish- and Finnish-speakers in Finland. Although social capital seemed to be relevant to the understanding of health among the oldest old, the meaning of social capital is probably different compared to a less vulnerable age group. This should be noticed in future empirical research. In the present thesis, it was shown that the relationship between social capital and health is complex and multidimensional. Different aspects of social capital seem to be important for different aspects of health. This reduces the possibility to generalize the results and to recommend general policy implementations in this area. An increased methodological awareness regarding social capital as well as health are called for in order to further understand the cfomplex association between them. However, based on the present data and findings social capital is associated with health. To understand individual health one must also consider social aspects of the individuals’ environment such as social capital.
Resumo:
Tutkielman tavoitteena on tehdä katsaus asuntosijoittamiseen sekä löytää asuntosijoittajalle tärkeää tietoa asuntojen hinta- ja vuokrakehitykseen vaikuttavista alueellisista tekijöistä. Asuntojen hintoihin vaikuttavia tekijöitä tutkitaan sekä kasvukaupungeissa että rakennemuutosalueilla. Asuntojen vuokrakehitykseen vaikuttavia selittäviä tekijöitä tutkitaan koko Suomen, pääkaupunkiseudun ja muun Suomen alueilla. Tutkimus toteutetaan käyttäen lineaarista regressioanalyysiä ja käytettävä aineisto koostuu muuttujien aikasarjoista vuosilta 1988–2010 sekä 1996–2009. Saatujen tulosten perusteella nettokansantulolla ja asuntokunnan käytet-tävissä olevalla rahatulolla on selkeä vaikutus asuntojen hintakehitykseen kasvukeskuksissa. Rakennemuutosalueilla työllisyyden ja teollisuuden vaikutukset ovat vahvoja. Asuntojen vuokriin vaikuttavista tekijöistä mm. asuinkerrostalokannalla, aloittaneiden yritysten määrällä ja asuntokunnan käytettävissä olevalla rahatulolla voidaan nähdä olevan selkeä vaikutus neliövuokran kehitykseen.
Resumo:
Electricity price forecasting has become an important area of research in the aftermath of the worldwide deregulation of the power industry that launched competitive electricity markets now embracing all market participants including generation and retail companies, transmission network providers, and market managers. Based on the needs of the market, a variety of approaches forecasting day-ahead electricity prices have been proposed over the last decades. However, most of the existing approaches are reasonably effective for normal range prices but disregard price spike events, which are caused by a number of complex factors and occur during periods of market stress. In the early research, price spikes were truncated before application of the forecasting model to reduce the influence of such observations on the estimation of the model parameters; otherwise, a very large forecast error would be generated on price spike occasions. Electricity price spikes, however, are significant for energy market participants to stay competitive in a market. Accurate price spike forecasting is important for generation companies to strategically bid into the market and to optimally manage their assets; for retailer companies, since they cannot pass the spikes onto final customers, and finally, for market managers to provide better management and planning for the energy market. This doctoral thesis aims at deriving a methodology able to accurately predict not only the day-ahead electricity prices within the normal range but also the price spikes. The Finnish day-ahead energy market of Nord Pool Spot is selected as the case market, and its structure is studied in detail. It is almost universally agreed in the forecasting literature that no single method is best in every situation. Since the real-world problems are often complex in nature, no single model is able to capture different patterns equally well. Therefore, a hybrid methodology that enhances the modeling capabilities appears to be a possibly productive strategy for practical use when electricity prices are predicted. The price forecasting methodology is proposed through a hybrid model applied to the price forecasting in the Finnish day-ahead energy market. The iterative search procedure employed within the methodology is developed to tune the model parameters and select the optimal input set of the explanatory variables. The numerical studies show that the proposed methodology has more accurate behavior than all other examined methods most recently applied to case studies of energy markets in different countries. The obtained results can be considered as providing extensive and useful information for participants of the day-ahead energy market, who have limited and uncertain information for price prediction to set up an optimal short-term operation portfolio. Although the focus of this work is primarily on the Finnish price area of Nord Pool Spot, given the result of this work, it is very likely that the same methodology will give good results when forecasting the prices on energy markets of other countries.
Resumo:
Työn tarkoituksena oli lähteä tutkimaan palkitsemisen, vaativuuden ja tehtävien eroavaisuuksia kolmen osuustoiminnallisen organisaation hallintoelinten välillä. Tavoitteena oli selvittää, miten palkitsemisen horisontaalista oikeudenmukaisuutta voitaisiin kehittää osuustoiminnallisten organisaatioiden hallintoelimissä. Tutkimus toteutettiin kvantitatiivisena kyselylomaketutkimuksena, ja analysointimenetelmänä käytettiin regressioanalyysiä. Tutkimuksen teoreettinen viitekehys koostui palkitsemisesta ja sen oikeudenmukaisuudesta keskittyen horisontaaliseen ulottuvuuteen, työn vaativuudesta sekä aiempien tutkimusten perusteella palkitsemiseen vaikuttavista tekijöistä muun muassa rakenteen, toimialan ja strategian näkökulmista. Tutkimuksessa havaittiin, että tilaajaorganisaatiossa X palkkiot olivat vertailuorganisaatiota Y ja Z korkeammat. Erot vaativuuden ja tehtävien osalta eivät olleet yhtä suuria kuin palkkioissa, mutta organisaatiossa X nämäkin olivat pääasiassa korkeammalla tasolla. Regressioanalyysissä kävi ilmi, että työn vaativuus selittää suurimman osan palkitsemisen kertymästä ja muut tilastollisesti merkittävät selittävät muuttujat olivat huomattavasti vähäisempiä. Organisaation X korkeamman palkkiotason voitiin nähdä johtuvan erilaisesta palkkiorakenteesta sekä siitä, että se otti palkitsemisessa organisaation koon huomioon; palkkiot vaihtelivat huomattavasti enemmän alueorganisaatioiden kesken kuin organisaatiossa Y ja Z. Johtopäätöksenä voidaan sanoa, että työn vaativuusarviointi palkkioiden horisontaalista oikeudenmukaisuutta arvioitaessa on merkittävimmässä asemassa. Muiden tarkasteltujen muuttujien osalta tulokset eivät olleet aivan odotetun kaltaisia tai täysin yhdenmukaisia aiempien tutkimusten kanssa, vaikka samansuuntaisiakin havaintoja saatiin. Työn tärkein anti oli kuitenkin työn vaativuusarvioinnin tärkeyden havaitseminen hallintoelintyön palkitsemisen yhteydessä horisontaalisella tasolla.
Resumo:
The term urban heat island (UHI) refers to the common situation in which the city is warmer than its rural surroundings. In this dissertation, the local climate, and especially the UHI, of the coastal city of Turku (182,000 inh.), SW Finland, was studied in different spatial and temporal scales. The crucial aim was to sort out the urban, topographical and water body impact on temperatures at different seasons and times of the day. In addition, the impact of weather on spatiotemporal temperature differences was studied. The relative importance of environmental factors was estimated with different modelling approaches and a large number of explanatory variables with various spatial scales. The city centre is the warmest place in the Turku area. Temperature excess relative to the coldest sites, i.e. rural areas about 10 kilometers to the NE from the centre, is on average 2 °C. Occasionally, the UHI intensity can be even 10 °C. The UHI does not prevail continuously in the Turku area, but occasionally the city centre can be colder than its surroundings. Then the term urban cool island or urban cold island (UCI) is used. The UCI is most common in daytime in spring and in summer, whereas during winter the UHI prevails throughout the day. On average, the spatial temperature differences are largest in summer, whereas the single extreme values are often observed in winter. The seasonally varying sea temperature causes the shift of relatively warm areas towards the coast in autumn and inland in spring. In the long term, urban land use was concluded to be the most important factor causing spatial temperature differences in the Turku area. The impact was mainly a warming one. The impact of water bodies was emphasised in spring and autumn, when the water temperature was relatively cold and warm, respectively. The impact of topography was on average the weakest, and was seen mainly in proneness of relatively low-lying places for cold air drainage during night-time. During inversions, however, the impact of topography was emphasised, occasionally outperforming those of urban land use and water bodies.
Resumo:
We studied the ability of patients not experienced in the use of peak expiratory flow meters to assess the severity of their asthma exacerbations and compared it to the assessment of experienced clinicians. We also evaluated which data of physical examination and medical history are used by physicians to subjectively evaluate the severity of asthma attacks. Fifty-seven adult patients (15 men and 42 women, with a mean (± SD) age of 37.3 ± 14.5 years and 24.0 ± 17.9 years of asthma symptoms) with asthma exacerbations were evaluated in a University Hospital Emergency Department. Patients and physicians independently evaluated the severity of the asthma attack using a linear scale. Patient score, physician score and forced expiratory volume at the first second (FEV1) were correlated with history and physical examination variables, and were also considered as dependent variables in multiple linear regression models. FEV1 correlated significantly with the physician score (rho = 0.42, P = 0.001), but not with patient score (rho = 0.03; P = 0.77). Use of neck accessory muscles, expiratory time and wheezing intensity were the explanatory variables in the FEV1 regression model and were also present in the physician score model. We conclude that physicians evaluate asthma exacerbation severity better than patients and that physician's scoring of asthma severity correlated significantly with objective measures of airway obstruction (FEV1). Some variables (the use of neck accessory muscles, expiratory time and wheezing intensity) persisted as explanatory variables in physician score and FEV1 regression models, and should be emphasized in medical schools and emergency settings.
Resumo:
Tämän kandidaatintutkielman tarkoituksena on tutkia, miten yhdysvaltalaisten lentoyhtiöiden harjoittama rahoituksellinen lentopolttoaineen hintasuojaus on vaikuttanut niiden keskimääräisiin polttoainekustannuksiin 2000-luvun aikana. Lisäksi tavoitteena on kirjallisuuskatsauksen muodossa tarkastella lentopolttoaineen hintariskiä ja siltä suojautumista. Aiheeseen liittyvä aiempi tutkimus on pääasiassa keskittynyt rahoitusasemaan liittyvien vaikutusten tarkasteluun. Tässä tutkielmassa puolestaan tutkitaan suojauksen vaikutusta tarkasteltavien lentoyhtiöiden liiketoiminnan kustannuksiin. Lentopolttoaineen hintasuojauksen kustannusvaikutuksia arvioidaan regressiomallilla, jossa selitettävänä muuttujana on lentoyhtiön keskimääräinen polttoainekustannus. Selittävinä muuttujina puolestaan toimivat seuraavan vuoden arvioiduista polttoainehankinnoista rahoituksellisin keinoin suojattujen hankintojen osuus sekä lentopolttoaineen keskimääräinen markkinahinta kunakin tarkasteluvuonna. Tutkimuksen aineisto koostuu kymmenestä yhdysvaltalaisesta lentoyhtiöstä ja niiden 2000-luvulla vuosikertomuksissaan raportoimista tiedoista liittyen polttoainekustannuksiin ja rahoitukselliseen polttoaineen hintasuojaukseen. Lisäksi lentopolttoaineen keskimääräiset vuotuiset markkinahinnat tarkastelujakson ajalta haetaan Yhdysvaltain energiainformaatiota välittävän viranomaisen verkkotietokannasta. Johtopäätöksenä todetaan yhdysvaltalaisten lentoyhtiöiden rahoituksellisen polttoaineen hintasuojauksen vähentäneen niiden keskimääräisiä polttoainekustannuksia 2000-luvun aikana. Lentopolttoaineen markkinahinnan todetaan vaikuttavan kustannuksiin reilusti lentoyhtiöiden suojaustoimenpiteitä voimakkaammin. Lisäksi aiempiin tutkimuksiin ja toisaalta tässä tutkielmassa estimoitavan mallin autokorreloituvaan luonteeseen nojaten todetaan, että tämän mallin selittävät muuttujat eivät ole ainoat keskimääräisiin polttoainekustannuksiin vaikuttavat tekijät. Yhteenvetona todetaankin tarkempaa lisätutkimusta tarvittavan, jotta tämän tutkielman tulokset voidaan luotettavammin yleistää.
Resumo:
Different Functional Forms Are Proposed and Applied in the Context of Educational Production Functions. Three Different Specifications - the Linerar, Logit and Inverse Power Transformation (Ipt) - Are Used to Explain First Grade Students' Results to a Mathematics Achievement Test. with Ipt Identified As the Best Functional Form to Explain the Data, the Assumption of Differential Impact of Explanatory Variables on Achievement Following the Status of the Student As a Low Or High Achiever Is Retained. Policy Implications of Such Result in Terms of School Interventions Are Discussed in the Paper.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La prise optimale d’un traitement antirétroviral est la clé du succès de ces traitements. Cette prise devrait être d’au moins 95 % des médicaments antirétroviraux prescrits afin de supprimer à long terme la réplication virale et donc de restaurer et de préserver la fonction immunologique. Cependant, les personnes vivant avec le virus de l’immunodéficience humaine (PVVIH) éprouvent des difficultés à adopter et à maintenir ce niveau de prise dans le temps. Bien que certaines interventions aient démontré leur capacité à faciliter ce comportement, au Québec il n’y a pas d’intervention systématique pour soutenir ces personnes dans la prise quotidienne de ces traitements. Le but de cette étude était donc de développer et d’évaluer une intervention pour faciliter le comportement de prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH. Pour guider le développement de l’intervention, la démarche appelée « intervention mapping » a été suivie. Le cadre théorique proposé par Godin et ses collègues (2005) qui inclut le sentiment d’efficacité personnelle et les attitudes positives face à la prise optimale d’un traitement antirétroviral a été ainsi utilisé non seulement pour prédire et expliquer le comportement de prise, mais aussi pour élaborer l’intervention. Selon ce modèle, le soutien social, la satisfaction envers les professionnels et le fait de ne pas ressentir d’effets indésirables sont autant de facteurs modifiables associés au sentiment d’efficacité personnelle et aux attitudes positives. L’intervention développée visait l’acquisition et la mobilisation des habiletés nécessaires pour influencer ces facteurs en vue de rehausser le sentiment d’efficacité personnelle et les attitudes positives ainsi que pour faciliter ce comportement. Cette intervention comportait quatre rencontres d’une durée de 45 à 75 minutes, s’échelonnant sur 12 semaines, avec une infirmière iii possédant une expertise en VIH. L’évaluation de l’effet de cette intervention sur le comportement et les variables explicatives a été effectuée à l’aide d’un essai clinique avec répartition aléatoire. La principale variable résultat a été mesurée à l’aide d’un questionnaire autoadministré, de la charge virale et du nombre de CD4. Autant la variable résultat principale que les variables explicatives ont été mesurées avant l’intervention et après celle-ci, soit à 12 et 24 semaines. L’échantillon était constitué de 51, personnes vivant avec le VIH et suivies dans une clinique à Montréal : 23 dans le groupe contrôle et 28 dans le groupe expérimental. Des analyses de variance (ANOVA) à mesures répétées ont été réalisées afin d’analyser l’effet de l’intervention sur la prise optimale d’un traitement antirétroviral et les autres variables intermédiaires dans le temps. Les résultats montrent une tendance positive (p = 0,056) quant à l’obtention d’une charge virale indétectable dans le groupe intervention. Ainsi, 43,8 % plus de personnes du groupe expérimental comparativement au groupe contrôle (78,6 % versus 34,8 %) avaient une charge virale indétectable à 12 semaines et 32,8 % de plus à 24 semaines (89,3 % versus 56,5 %). Bien qu’aucun effet significatif ait été trouvé en regard des variables explicatives, probablement à cause d’un manque de puissance statistique, les légères augmentations observées dans le groupe expérimental sont cohérentes avec le modèle théorique utilisé (Godin & al., 2005). Cette étude contribue à l’avancement des connaissances en proposant une intervention pour faciliter la prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH.