936 resultados para germs of holomorphic generalized functions


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pro Gradu -tutkielman tavoitteena on tutkia ulkoistettujen toimintojen valvontaa sekä toimintoihin kohdistuvan valvonnan eroja yrityksissä. Lisäksi tutkitaan, miten hyvin ulkoistukseen liittyvät mittarit toimivat. Tutkimuksessa pyritään selvittämään ulkoistamiseen liittyvien riskien toteutumisia sekä selvittämään valvonnan vaikutusta palvelun laatuun. Tutkimuksen tekoon vaikutti ulkoistamisten lisääntyminen sekä ulkoistettujen toimintojen valvontaan keskittyvien tutkimuksien puuttuminen. Aiemmin tehdyissä tutkimuksissa ei ole käsitelty toimintojen valvontaa. Empiirisessä tutkimuksessa tarkastellaan seitsemän eri toimialalla toimivan yrityksen ulkoistettuja toimintoja. Aineistokeruu tutkimukseen on toteutettu haastatteluina. Tutkimustulosten perusteella voidaan todeta yritysten valvonnan perustuvan sopimuksessa määriteltyihin mittareihin, joiden koetaan mittaavan haluttuja asioita. Toimintojen valvonnassa ei yrityksien välillä ole olennaisia eroja. Yritykset ovat pääsääntöisesti huomioineet ulkoistukseen liittyvät riskit riskienhallinnassaan. Yritykset kokevat valvonnan tehostamisen vaikuttavan palvelun laatuun.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutkimuksen aiheena on yleistynyt luottamus. Väitöskirjassa tutkitaan mistä tuntemattomien kansalaisten toisiinsa kohdistama luottamus kumpuaa ja haetaan vastauksia tähän kysymykseen sekä maakohtaisen että vertailevan tutkimuksen avulla. Tutkimus koostuu yhteenvedon lisäksi viidestä tutkimusartikkelista, joissa luottamuksen syntyä tarkastellaan sekä yksilöiden mikrotason vuorovaikutuksen että maiden välisten eroavaisuuksien näkökulmasta. Yleistyneen luottamuksen synnystä on esitetty useita eri teorioita. Tässä tutkimuksessa tarkastellaan näistä kahta keskeisintä. Osa tutkijoista korostaa kansalaisyhteiskunnan ja ruohonjuuritason verkostojen roolia yleistyneen luottamuksen synnyn taustalla. Tämän hypoteesin mukaan kansalaiset, jotka viettävät aikaansa yhdistyksissä tai muissa sosiaalisissa verkostoissa, oppivat muita helpommin luottamaan paitsi täysin tuntemattomiin ihmisiin myös yhteiskunnallisiin instituutioihin (kansalaisyhteiskuntakeskeinen hypoteesi). Toiset taas painottavat yhteiskunnan julkisten instituutioiden merkitystä. Tämä hypoteesi korostaa instituutioiden reiluutta ja oikeudenmukaisuutta (instituutiokeskeinen hypoteesi). Ihmiset pystyvät luottamaan toisiinsa ja ratkaisemaan kollektiivisia ongelmiaan yhdessä silloin kun esimerkiksi poliittiset ja lainsäädännölliset instituutiot pystyvät luomaan tähän tarvittavan toimintaympäristön. Aineistoina käytetään kansallisia (Hyvinvointi- ja palvelut) sekä kansainvälisiä vertailevia kyselytutkimuksia (European Social Survey ja ISSP). Yksilö- ja makrotason analyyseja yhdistämällä selvitetään yleistynyttä luottamusta selittäviä tekijöitä sekä mekanismeja joiden kautta yleistynyt luottamus muodostuu. Väitöskirjan tulokset tukevat suurimmaksi osaksi instituutiokeskeiseen suuntaukseen sisältyviä hypoteeseja yleistyneen luottamuksen kasautumisesta. Kuitenkin myös esimerkiksi yhdistystoiminnalla havaittiin olevan joitakin yhdistysjäsenien ulkopuolelle ulottuvia myönteisiä vaikutuksia kansalaisten luottamukseen, mikä taas tukee kansalaisyhteiskuntakeskeistä hypoteesia. Tutkimuksen keskeinen tulos on, että kaiken kaikkiaan luottamus näyttäisi kukoistavan maissa, joissa kansalaiset kokevat julkiset instituutiot oikeudenmukaisina sekä reiluina, kansalaisyhteiskunnan roolin luottamuksen synnyttämisessä ollessa tälle alisteinen. Syyksi tähän on oletettu, että näissä maissa (erityisesti pohjoismaiset hyvinvointivaltiot) harjoitettu universaali hyvinvointipolitiikka ja palvelut ovat keskeisiä korkeaa yleistynyttä luottamusta selittäviä tekijöitä. Toisaalta maavertailuissa tätä yhteyttä on selitetty myös sillä, että näissä yhteiskunnassa ei ole paikannettavissa selkeää kulttuurisesti erottuvaa alaluokkaa. Tämän tutkimuksen tulokset tukevat enemmän universaalin hyvinvointivaltion oikeudenmukaisuuteen liittyviä ominaisuuksia alaluokkaistumishypoteesin sijaan. Toisaalta mikrotasolla tarkasteltuna yleistyneen luottamuksen ja hyvinvointipalvelujen välinen yhteys liittyy enemmän palveluiden riittävyyteen kuin niiden universaalisuuden asteeseen. Niin ikään maavertailuissa esimerkiksi verotuksen oikeudenmukaisena kokeminen näyttäisi olevan palvelujen saatavuutta tai niihin liittyviä oikeudenmukaisuuden kokemuksia tärkeämpi seikka yleistyneen luottamuksen kannalta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Animal studies suggest that olive oil is capable of modulating functions of cells of the immune system in a manner similar to, albeit weaker than, fish oils. There is some evidence that the effects of olive oil on immune function in animal studies are due to oleic acid rather than to trace elements or antioxidants. Importantly, several studies have demonstrated effects of oleic acid-containing diets on in vivo immune responses. In contrast, consumption of a monounsaturated fatty acid (MUFA)-rich diet by humans does not appear to bring about a general suppression of immune cell functions. The effects of this diet in humans are limited to decreasing aspects of adhesion of peripheral blood mononuclear cells, although there are trends towards decreases in natural killer cell activity and proliferation. The lack of a clear effect of MUFA in humans may be attributable to the higher level of monounsaturated fat used in the animal studies, although it is ultimately of importance to examine the effects of intakes which are in no way extreme. The effects of MUFA on adhesion molecules are potentially important, since these molecules appear to have a role in the pathology of a number of diseases involving the immune system. This area clearly deserves further exploration

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The escape response to electrical or chemical stimulation of the dorsal periaqueductal gray matter (DPAG) has been associated with panic attacks. In order to explore the validity of the DPAG stimulation model for the study of panic disorder, we determined if the aversive consequences of the electrical or chemical stimulation of this midbrain area can be detected subsequently in the elevated T-maze. This animal model, derived from the elevated plus-maze, permits the measurement in the same rat of a generalized anxiety- and a panic-related defensive response, i.e., inhibitory avoidance and escape, respectively. Facilitation of inhibitory avoidance, suggesting an anxiogenic effect, was detected in male Wistar rats (200-220 g) tested in the elevated T-maze 30 min after DPAG electrical stimulation (current generated by a sine-wave stimulator, frequency at 60 Hz) or after local microinjection of the GABA A receptor antagonist bicuculline (5 pmol). Previous electrical (5, 15, 30 min, or 24 h before testing) or chemical stimulation of this midbrain area did not affect escape performance in the elevated T-maze or locomotion in an open-field. No change in the two behavioral tasks measured by the elevated T-maze was observed after repetitive (3 trials) electrical stimulation of the DPAG. The results indicate that activation of the DPAG caused a short-lived, but selective, increase in defensive behaviors associated with generalized anxiety.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Digitalisaation myötä myös liikenteestä tulee yhä älykkäämpää. Valtiovalta purkaa sääntelyä ja sallii digitaalisten menetelmien laajempaa käyttöä. Kuljettajakoulutusta pidetään toimialana kuitenkin hyvin konventionaalisena. Diplomityön tarkoituksena on tutkia, mitä digitalisaatio tarkoittaa kuljettajakoulutusyritysten liiketoimintamalleille. Empiiristä aineistoa saatiin teemahaastatteluin ja aineistoa analysoitiin laadullisin menetelmin. Työssä esitellään alan vahvuudet, heikkoudet, mahdollisuudet ja uhat sekä tulevaisuuden skenaariot. Digitalisaatio aiheuttaa merkittäviä muutoksia kuljettajakoulutusalan yrityksille. Auto ei ole enää entisenlainen statussymboli eikä rahan käytön kohde. Digitaaliajan ihmiset eivät aina kaipaa fyysistä liikkumista, kun vielä kivijalkakaupatkin vähenevät. Ajokorttia ei useinkaan koeta välttämättömäksi aikuistumisriitiksi. Uusi teknologia voi kuitenkin radikaalisti parantaa alan yritysten suorituskykyä: palvelut muuttuvat ajasta ja paikasta riippumattomiksi sekä skaalautuviksi. Kuluttajien kannalta digitalisaatio puolestaan parantaa asiakaslähtöisyyttä. Alan liiketoimintamallien kehittymiseen vaikuttaa neljä taustavoimaa: digitalisaatio, perinteet, sääntely ja yrittäjyys. Liiketoimintamalli sisältää opetukselliset ydintoiminnot, sisäiset prosessit, liiketoiminnan tukitoiminnot ja arvoehdotuksen asiakkaalle. Liiketoiminnan kehittäminen vastaamaan digitalisaation vaatimuksia edellyttää proaktiivista innovaatiostrategiaa. Siihen perustuvien innovaatiomenetelmien avulla yritys voi kehittää liiketoimintamalliaan digitalisaation tarjoamien ja tiedon asymmetriasta kumpuavien mahdollisuuksien hyödyntämiseksi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tässä diplomityössä käydään läpi materiaalihallintaa strategisista näkökulmista, joihin kuuluvat strateginen suunnittelu ja johtaminen, hankintatoimi, materiaalihallinta ennustamisen ja varastoimisen kautta sekä yleinen toiminnan kehittäminen. Näiden osa-alueiden kokonaissummasta tulee käsite strateginen materiaalihallinta, jonka avulla tässä työssä yritetään ratkaista tutkimuskohteena olevan yrityksen materiaalihallinnan haasteita. Strateginen materiaalihallinnan suunnittelu pitää aloittaa hahmottamalla oma ympäristö, esimerkiksi portfolioanalyysiä ja Ishikawan kalanruotokaaviota hyväksikäyttäen. Tämän jälkeen omat materiaalihallinnan kyvykkyydet voidaan analysoida, esimerkiksi SWOT-analyysin avulla, jolla pystytään kartoittamaan omat vahvuudet ja heikkoudet, sekä uhat että mahdollisuudet. Vasta kun ympäristö ja omat kyvykkyydet ovat analysoitu, voidaan asettaa päämäärät ja tavoitteet, joilla pyritään tukemaan kyseistä liiketoimintaa strategisen materiaalihallinnan avulla. Näiden tavoitteiden ja päämäärien saavuttamista on tärkeää myös seurata ja mitata. Strategista materiaalihallintaa voidaan optimoida eri tavoin, esimerkiksi erilaisilla hankinta-, varastointi, ja ennustemalleilla. Myös ABC-analyysin avulla voidaan ohjata eri ABC-luokkien materiaalihallintaa. Strateginen materiaalihallinta pyrkii siis tukemaan strategisesti liiketoimintojen päämääriä ja samalla vastaamaan asiakaskysyntään määritetyllä toimituskyvyllä minimi kokonaiskustannuksin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Are There evidences of deindustrialization in Brazil? This paper aims at analyzing the theoretical concept of deindustrialization, and evaluating if Brazil, following the implementation of economic reforms in the 1990's, has suffered from a " new Dutch disease" . Despite the manufacturing sector declining participation in the Brazilian Gross Domestic Product (GDP), the empirical evidence show that the changes in the economy structure since the mid-1980’s to the end of 2005 should not be described as deindustrialization. Since there was not evidence of either generalized reallocation of resources towards industries based on natural resources, or a pattern of export specialization in goods technologically based on natural resources or even on labor, one cannot conclude that Brazil was infected by a " new Dutch disease" .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trichoderma aggressivum f. aggressivum is a filamentous soil fungus. Green mold disease of commercial mushrooms caused by this species in North America has resulted in millions of dollars in lost revenue within the mushroom growing industry. Research on the molecular level of T aggressivum have jus t begun with the goal of understanding the functions of each gene and protein, and their expression control. Protein targeting has not been well studied in this species yet. Therefore, the intent of this study was to test the protein localization and production levels in T aggressivum with green fluorescent protein (GFP) with an intron and tagged with either nuclear localization signal (NLS) or an endoplasmic reticulum retention signal (KDEL). Two GFP constructs (with and without the intron) were used as controls in this study. All four constructs were successfully transferred into T aggressivum and all modified strains showed similar growth characteristics as the wild type non-transformed isolate. GFP expression was detected from all modified T aggressivum with confocal microscopy and the expression was similar in all four strains. The intron tested in this study had no or very minor effects as GFP expression was similar with or without it. The GFP signal increased over a 5 day period for all transformants, while the GFP to total protein ratio decreased over the same period for all transformants. The GFP-KDEL transformant showed similar protein expression level and localization as did the control transformant lacking the KDEL retention signal. The GFP-NLS transformant similarly failed to localize GFP into nucleus as fluorescence with this strain was virtually identical to the GFP transformant lacking the NLS. Thus, future research is required to find effective localization signals for T aggressivum.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Variations in different types of genomes have been found to be responsible for a large degree of physical diversity such as appearance and susceptibility to disease. Identification of genomic variations is difficult and can be facilitated through computational analysis of DNA sequences. Newly available technologies are able to sequence billions of DNA base pairs relatively quickly. These sequences can be used to identify variations within their specific genome but must be mapped to a reference sequence first. In order to align these sequences to a reference sequence, we require mapping algorithms that make use of approximate string matching and string indexing methods. To date, few mapping algorithms have been tailored to handle the massive amounts of output generated by newly available sequencing technologies. In otrder to handle this large amount of data, we modified the popular mapping software BWA to run in parallel using OpenMPI. Parallel BWA matches the efficiency of multithreaded BWA functions while providing efficient parallelism for BWA functions that do not currently support multithreading. Parallel BWA shows significant wall time speedup in comparison to multithreaded BWA on high-performance computing clusters, and will thus facilitate the analysis of genome sequencing data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Feature selection plays an important role in knowledge discovery and data mining nowadays. In traditional rough set theory, feature selection using reduct - the minimal discerning set of attributes - is an important area. Nevertheless, the original definition of a reduct is restrictive, so in one of the previous research it was proposed to take into account not only the horizontal reduction of information by feature selection, but also a vertical reduction considering suitable subsets of the original set of objects. Following the work mentioned above, a new approach to generate bireducts using a multi--objective genetic algorithm was proposed. Although the genetic algorithms were used to calculate reduct in some previous works, we did not find any work where genetic algorithms were adopted to calculate bireducts. Compared to the works done before in this area, the proposed method has less randomness in generating bireducts. The genetic algorithm system estimated a quality of each bireduct by values of two objective functions as evolution progresses, so consequently a set of bireducts with optimized values of these objectives was obtained. Different fitness evaluation methods and genetic operators, such as crossover and mutation, were applied and the prediction accuracies were compared. Five datasets were used to test the proposed method and two datasets were used to perform a comparison study. Statistical analysis using the one-way ANOVA test was performed to determine the significant difference between the results. The experiment showed that the proposed method was able to reduce the number of bireducts necessary in order to receive a good prediction accuracy. Also, the influence of different genetic operators and fitness evaluation strategies on the prediction accuracy was analyzed. It was shown that the prediction accuracies of the proposed method are comparable with the best results in machine learning literature, and some of them outperformed it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Single-peaked preferences have played an important role in the literature ever since they were used by Black (1948) to formulate a domain restriction that is sufficient for the exclusion of cycles according to the majority rule. In this paper, we approach single-peakedness from a choice-theoretic perspective. We show that the well-known axiom independence of irrelevant alternatives (a form of contraction consistency) and a weak continuity requirement characterize a class of single-peaked choice functions. Moreover, we examine the rationalizability and the rationalizability-representability of these choice functions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La plasticité synaptique est une importante propriété du système nerveux, impliquée dans l’intégration de l’information. Cette plasticité a généralement été décrite par des changements aux niveaux pré et postsynaptiques. Notamment, l’efficacité présynaptique, soit la probabilité de libération de neurotransmetteurs associée au contenu quantique d’une synapse, peut être augmentée ou diminuée selon l’activité antérieure de la synapse. Malgré cette caractérisation, les mécanismes à l’origine de la détermination de l’efficacité présynaptique demeurent obscurs. Également, la plasticité synaptique reste encore mal définie au niveau glial, limitant, de ce fait, notre compréhension de l’intégration de l’information. Pourtant, la dernière décennie a mené à une redéfinition du rôle des cellules gliales. Autrefois reléguées à un rôle de support passif aux neurones, elles sont désormais reconnues comme étant impliquées dans la régulation de la neurotransmission. Notamment, à la jonction neuromusculaire (JNM), les cellules de Schwann périsynaptiques (CSPs) sont reconnues pour moduler l’efficacité présynaptique et les phénomènes de plasticité. Un tel rôle actif dans la modulation de la neurotransmission implique cependant que les CSPs soient en mesure de s’adapter aux besoins changeants des JNMs auxquelles elles sont associées. La plasticité synaptique devrait donc sous-tendre une forme de plasticité gliale. Nous savons, en effet, que la JNM est capable de modifications tant morphologiques que physiologiques en réponse à des altérations de l'activité synaptique. Par exemple, la stimulation chronique des terminaisons nerveuses entraîne une diminution persistante de l’efficacité présynaptique et une augmentation de la résistance à la dépression. À l’opposé, le blocage chronique des récepteurs nicotiniques entraîne une augmentation prolongée de l’efficacité présynaptique. Aussi, compte tenu que les CSPs détectent et répondent à la neurotransmission et qu’elles réagissent à certains stimuli environnementaux par des changements morphologiques, physiologiques et d’expression génique, nous proposons que le changement d'efficacité présynaptique imposé à la synapse, soit par une stimulation nerveuse chronique ou par blocage chronique des récepteurs nicotiniques, résulte en une adaptation des propriétés des CSPs. Cette thèse propose donc d’étudier, en parallèle, la plasticité présynaptique et gliale à long-terme, en réponse à un changement chronique de l’activité synaptique, à la JNM d’amphibien. Nos résultats démontrent les adaptations présynaptiques de l’efficacité présynaptique, des phénomènes de plasticité à court-terme, du contenu mitochondrial et de la signalisation calcique. De même, ils révèlent différentes adaptations gliales, notamment au niveau de la sensibilité des CSPs aux neurotransmetteurs et des propriétés de leur réponse calcique. Les adaptations présynaptiques et gliales sont discutées, en parallèle, en termes de mécanismes et de fonctions possibles dans la régulation de la neurotransmission. Nos travaux confirment donc la coïncidence de la plasticité présynaptique et gliale et, en ce sens, soulèvent l’importance des adaptations gliales pour le maintien de la fonction synaptique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudierons quelques propriétés algébriques, géométriques et topologiques des surfaces de Riemann compactes. Deux grand sujets seront traités. Tout d'abord, en utilisant le fait que toute surface de Riemann compacte de genre g plus grand ou égal à 2 possède un nombre fini de points de Weierstrass, nous allons pouvoir conclure que ces surfaces possèdent un nombre fini d'automorphismes. Ensuite, nous allons étudier de plus près la formule de trace d'Eichler. Ce théorème nous permet de trouver le caractère d'un automorphisme agissant sur l'espace des q-différentielles holomorphes. Nous commencerons notre étude en utilisant la quartique de Klein. Nous effectuerons un exemple de calcul utilisant le théorème d'Eichler, ce qui nous permettra de nous familiariser avec l'énoncé du théorème. Finalement, nous allons démontrer la formule de trace d'Eichler, en prenant soin de traiter le cas où l'automorphisme agit sans point fixe séparément du cas où l'automorphisme possède des points fixes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.