254 resultados para Multiplier
Resumo:
Le corps humain emploie le glucose comme source principale d'énergie. L'insuline, sécrétée par les cellules ß-pancreatiques situées dans les îlots de Langerhans, est l'hormone principale assurant un maintien constant du taux de glucose sanguin (glycémie). Les prédispositions génétiques, le manque d'activité physique et un régime déséquilibré peuvent entraîner une perte de sensibilité à l'insuline et des taux de glucose dans le sang élevé (hyperglycémie), une condition nommée diabète de type 2. Cette maladie est initiée par une sensibilité diminuée à l'insuline dans les tissus périphériques, entraînant une demande accrue en insuline. Cette pression continue finie par épuiser les cellules ß-pancreatiques, qui sécrètent alors des niveaux d'insuline insuffisant en trainant l'apparition du diabète. Le vieillissement est un facteur de risque important pour les maladies métaboliques dont le diabète de type 2 faits partis. En effet la majeure partie des diabétiques de type 2 ont plus de 45 ans. Il est connu que le vieillissement entraine une perte de sensibilité à l'insuline, une sécrétion altérée d'insuline, une baisse de réplication et une plus grande mort des ß-cellules pancréatiques. Le but de ma thèse était de mieux comprendre les mécanismes contribuante au dysfonctionnement des cellules ß- pancréatiques lors du vieillissement. Les travaux du « Human Genome Project » ont révélés que seulement 2% de notre génome code pour des protéines. Le reste non-codant fut alors désigné sous le nom de « ADN déchets ». Cependant, l'étude approfondie de cet ADN non-codant ces dernières deux décennies a démontré qu'une grande partie code pour des «MicroARNs », des ARNs courts (20-22 nucleotides) découverts en 1997 chez le vers C.elegans. Depuis lors ces molécules ont été intensivement étudiées, révélant un rôle crucial de ces molécules dans la fonction et la survie des cellules en conditions normales et pathologiques. Le but de cette thèse était d'étudier le rôle des microARNs dans le dysfonctionnement des cellules ß lors du vieillissement. Nos données suggèrent qu'ils peuvent jouer un rôle tantôt salutaire, tantôt nocif sur les cellules ß. Par exemple, certains microARNs réduisent la capacité des cellules ß à se multiplier ou réduisent leur survie, alors que d'autres protègent ces cellules contre la mort. Pour conclure, nous avons démontré les microARNs jouent un rôle important dans le dysfonctionnement des cellules ß lors du vieillissement. Ces nouvelles découvertes préparent le terrain pour la conception de futures stratégies visant à améliorer la résistance des cellules ß pancréatiques afin de trouver de nouveaux traitements du diabète de type 2. -- Le diabète de type 2 est une maladie métabolique due à la résistance à l'action de l'insuline des tissus cibles combinée à l'incapacité des cellules ß pancréatiques à sécréter les niveaux adéquats d'insuline. Le vieillissement est associé à un déclin global des fonctions de l'organisme incluant une diminution de la fonction et du renouvellement des cellules ß pancréatiques. Il constitue ainsi un risque majeur de développement des maladies métaboliques dont le diabète de type 2. Le but de cette thèse était d'étudier le rôle des microARNs (une classe d'ARN non- codants) dans le dysfonctionnement lié au vieillissement des cellules ß. L'analyse par microarray des niveaux d'expression des microARN dans les îlots pancréatiques de rats Wistar mâles âgés de 3 et 12 mois nous a permis d'identifier de nombreux changements d'expression de microARNs associés au vieillissement. Afin d'étudier les liens entre ces modifications et le déclin des cellules ß, les changements observés lors du vieillissement ont été reproduits spécifiquement dans une lignée cellulaire, dans des cellules ß primaires de jeune rats ou de donneurs humains sains. La diminution du miR-181a réduit la prolifération des cellules ß, tandis que la diminution du miR-130b ou l'augmentation du miR-383 protège contre l'apoptose induite par les cytokines. L'augmentation du miR-34a induit l'apoptose et inhibe la prolifération des cellules ß en réponse aux hormones Exendin-4 et prolactine et au facteur de croissance PDGF-AA. Cette perte de capacité réplicative est similaire à celle observée dans des cellules ß de rats âgés de 12 mois. Dans la littérature, la perte du récepteur au PDGF-r-a est associée à la diminution de la capacité proliférative des cellules ß observée lors du vieillissement. Nous avons pu démontrer que PDGF-r-a est une cible directe de miR- 34a, suggérant que l'effet néfaste de miR-34a sur la prolifération des cellules ß est, du moins en partie, lié à l'inhibition de l'expression de PDGF-r-a. L'expression de ce miR est aussi plus élevée dans le foie et le cerveau des animaux de 1 an et augmente avec l'âge dans les ilôts de donneurs non-diabétiques. Ces résultats suggèrent que miR-34a pourrait être non seulement impliqué dans l'affaiblissement des fonctions pancréatiques associé à l'âge, mais également jouer un rôle dans les tissus cibles de l'insuline et ainsi contribuer au vieillissement de l'organisme en général. Pour conclure, les travaux obtenus durant cette thèse suggèrent que des microARNs sont impliqués dans le dysfonctionnement des cellules ß pancréatiques durant le vieillissement. -- Type 2 diabetes is a metabolic disease characterized by impaired glucose tolerance, of the insulin sensitive tissues and insufficient insulin secretion from the pancreatic ß-cells to sustain the organism demand. Aging is a risk factor for the majority of the metabolic diseases including type 2 diabetes. With aging is observed a decline in all body function, due to decrease both in cell efficiency and renewal. The aim of this thesis was to investigate the potential role of microRNAs (short non- coding RNAs) in the pancreatic ß-cell dysfunction associated with aging. Microarray analysis of microRNA expression profile in pancreatic islets from 3 and 12 month old Wistar male rats revealed important changes in several microRNAs. To further study the link between those alterations and the decline of ß-cells, the changes observed in old rats were mimicked in immortalized ß-cell lines, primary young rat and human islets. Downregulation of miR-181a inhibited pancreatic ß-cell proliferation in response to proliferative drugs, whereas downregulation of miR-130b and upregulation of miR-383 protected pancreatic ß-cells from cytokine stimulated apoptosis. Interestingly, miR-34a augmented pancreatic ß-cell apoptosis and inhibited ß-cell proliferation in response to the proliferative chemicals Exendin-4, prolactin and PDGF-AA. This loss of replicative capacity is reminiscent of what we observed in pancreatic ß-cells isolated from 12 month old rats. We further observed a correlation between the inhibitory effect of miR-34a on pancreatic ß-cell proliferation and its direct interfering effect of this microRNA on PDGF-r-a, which was previously reported to be involved in the age-associated decline of pancreatic ß-cell proliferation. Interestingly miR-34a was upregulated in the liver and brain of 1 year old animals and positively correlated with age in pancreatic islets of normoglycemic human donors. These results suggest that miR-34a might be not only involved in the age-associated impairment of the pancreatic ß-cell functions, but also play a role in insulin target tissues and contribute to the aging phenotype on the organism level. To conclude, we have demonstrated that microRNAs are indeed involved in the age-associated pancreatic ß-cell dysfunction and they can play both beneficial and harmful roles in the context of pancreatic ß-cell aging.
Resumo:
Perinteisiä taloushallintopalveluja tuottavilla tilitoimistoilla on omien palveluidensa hinnoittelu ollut yksi haastavimmista hallinnollisista tehtävistä. Hinnoittelutavat alalla vaihtelevat ja myös asiakkaan on ollut vaikea ymmärtää hinnan muodostumisen periaatteita. Strategisesti vääränlainen hinnoittelu on myös saattanut johtaa kannattamattomaan liiketoimintaan. Tämän tutkimuksen tavoitteena on kehittää taloushallintopalveluja tuottavalle tilitoimistolle ymmärrettävä ja tehokkaasti toimiva hinnoittelumalli kirjanpitopalveluiden hinnoitteluun. Hinnoittelumallin on tarkoitus toimia kustannuslaskennan, palveluiden hinnoittelun sekä resurssienhallinnan ja budjetoinnin välineenä tuotettaessa kirjanpitopalveluita sekä muita tilitoimistoyrityksen palvelutuotteita. Tutkimus toteutettiin tutkimalla esimerkkiyrityksen kirjanpidon laskutusta yhden tilikauden ajalta. Aineistoa analysoimalla voitiin luoda kerroinmalli, jonka avulla voidaan hinnoitella kirjanpitopalveluita. Aineistoa analysoitaessa havaittiin voimakasta hajontaa aineistossa esiintyvissä kertoimissa. Tilikauden aikaisesta laskutusaineistosta löydettiin myös selkeä kannattavuuteen vaikuttava asia, jonka euromääräistä vaikutusta voitiin arvioida kerroinmallin avulla.
Resumo:
The assembly and maintenance of the International Thermonuclear Experimental Reactor (ITER) vacuum vessel (VV) is highly challenging since the tasks performed by the robot involve welding, material handling, and machine cutting from inside the VV. The VV is made of stainless steel, which has poor machinability and tends to work harden very rapidly, and all the machining operations need to be carried out from inside of the ITER VV. A general industrial robot cannot be used due to its poor stiffness in the heavy duty machining process, and this will cause many problems, such as poor surface quality, tool damage, low accuracy. Therefore, one of the most suitable options should be a light weight mobile robot which is able to move around inside of the VV and perform different machining tasks by replacing different cutting tools. Reducing the mass of the robot manipulators offers many advantages: reduced material costs, reduced power consumption, the possibility of using smaller actuators, and a higher payload-to-robot weight ratio. Offsetting these advantages, the lighter weight robot is more flexible, which makes it more difficult to control. To achieve good machining surface quality, the tracking of the end effector must be accurate, and an accurate model for a more flexible robot must be constructed. This thesis studies the dynamics and control of a 10 degree-of-freedom (DOF) redundant hybrid robot (4-DOF serial mechanism and 6-DOF 6-UPS hexapod parallel mechanisms) hydraulically driven with flexible rods under the influence of machining forces. Firstly, the flexibility of the bodies is described using the floating frame of reference method (FFRF). A finite element model (FEM) provided the Craig-Bampton (CB) modes needed for the FFRF. A dynamic model of the system of six closed loop mechanisms was assembled using the constrained Lagrange equations and the Lagrange multiplier method. Subsequently, the reaction forces between the parallel and serial parts were used to study the dynamics of the serial robot. A PID control based on position predictions was implemented independently to control the hydraulic cylinders of the robot. Secondly, in machining, to achieve greater end effector trajectory tracking accuracy for surface quality, a robust control of the actuators for the flexible link has to be deduced. This thesis investigates the intelligent control of a hydraulically driven parallel robot part based on the dynamic model and two schemes of intelligent control for a hydraulically driven parallel mechanism based on the dynamic model: (1) a fuzzy-PID self-tuning controller composed of the conventional PID control and with fuzzy logic, and (2) adaptive neuro-fuzzy inference system-PID (ANFIS-PID) self-tuning of the gains of the PID controller, which are implemented independently to control each hydraulic cylinder of the parallel mechanism based on rod length predictions. The serial component of the hybrid robot can be analyzed using the equilibrium of reaction forces at the universal joint connections of the hexa-element. To achieve precise positional control of the end effector for maximum precision machining, the hydraulic cylinder should be controlled to hold the hexa-element. Thirdly, a finite element approach of multibody systems using the Special Euclidean group SE(3) framework is presented for a parallel mechanism with flexible piston rods under the influence of machining forces. The flexibility of the bodies is described using the nonlinear interpolation method with an exponential map. The equations of motion take the form of a differential algebraic equation on a Lie group, which is solved using a Lie group time integration scheme. The method relies on the local description of motions, so that it provides a singularity-free formulation, and no parameterization of the nodal variables needs to be introduced. The flexible slider constraint is formulated using a Lie group and used for modeling a flexible rod sliding inside a cylinder. The dynamic model of the system of six closed loop mechanisms was assembled using Hamilton’s principle and the Lagrange multiplier method. A linearized hydraulic control system based on rod length predictions was implemented independently to control the hydraulic cylinders. Consequently, the results of the simulations demonstrating the behavior of the robot machine are presented for each case study. In conclusion, this thesis studies the dynamic analysis of a special hybrid (serialparallel) robot for the above-mentioned special task involving the ITER and investigates different control algorithms that can significantly improve machining performance. These analyses and results provide valuable insight into the design and control of the parallel robot with flexible rods.
Resumo:
Diplomityö käsittelee Helsingin sosiaali- ja terveysviraston palvelusetelitoimintaa eräänä ostopalvelun järjestämistapana. Vakinaistettuja palveluseteleitä on kaksi-toista, joista työhön on valittu viisi kustannuksiltaan ja lukumääriltään suurinta palveluseteliä. Tutkimuksessa mallinnetaan kahden keskenään erilaisimman palve-lusetelin prosessikuvaukset, vanhusten palveluasumisen (sosh) ja suun terveyden-huollon (tervh) palveluseteleille ja kuvataan niiden hallinnolliset työvaiheet ja toi-minnot. Empiirinen aineisto koostuu aiemmin kerätystä hallinnollisen työajan da-tasta, jonka avulla eri toimintoihin sitoutuneiden hallinnollisten kustannuksien las-kenta on suoritettu hyödyntäen aikaperusteista toimintolaskentaa. Aikaperusteisen toimintolaskennan avulla saadaan esille kirjanpidon ulkopuolelle jääviä piileviä prosessikustannuksia. Lisäksi diplomityössä tehdään edullisuusvertailua oman vas-taavan palvelutoiminnan ja palvelusetelien välillä. Terveydenhuollon palvelusetelien hallinnolliset prosessit osoittautuvat hallinnolli-sesti ja kustannuksien osalta kuormittavammaksi kuin sosiaalihuollon vastaavat prosessit. Terveydenhuollon palveluseteliprosessit ovat luonteeltaan monivaihei-sempia, ne ovat toimenpiteellisiä ja kertaluonteisia, joka lisää asiakasvolyymia ja tiedon välittämisen tarvetta sosiaali- ja terveysviraston ja palveluntuottajan välillä. Hallinnollinen kustannuslisä on vuoden 2013 palvelusetelitoiminnan volyymeillä suun terveydenhuollossa +24%, kolonoskopiassa +9%, ikäihmisten päivätoimin-nassa +8%, vammaisten henkilökohtaisessa avussa +5% ja vanhusten palveluasu-misessa +1%. Hallinnollisten kustannusten esiin tuomiseksi tulee terveydenhuollon palvelusetelien kirjanpidon kustannuksissa käyttää kerrointa 1,167 ja sosiaalihuol-lon palvelusetelien kustannuksissa kerrointa 1,046. Edullisuusvertailussa suun terveydenhuollon ja kolonoskopian palvelusetelit osoittautuvat omaa toimintaa kalliimmiksi, vanhusten palveluasuminen, ikäihmisten päivätoiminta ja vammais-ten henkilökohtainen apu on edullisempaa tuottaa palvelusetelillä. Palveluseteli-toiminnan kustannushyöty ei ole ainoa tekijä toimintaa suunnitelleessa. Hoitota-kuuseen vastaaminen, asiakasorientaation ja vapaavalintaisuuden lisääntyminen, sekä palvelun sujuvuus vaikuttavat myös palvelusetelitoiminnan kehittämisessä.
Resumo:
In recent years, technological advancements in microelectronics and sensor technologies have revolutionized the field of electrical engineering. New manufacturing techniques have enabled a higher level of integration that has combined sensors and electronics into compact and inexpensive systems. Previously, the challenge in measurements was to understand the operation of the electronics and sensors, but this has now changed. Nowadays, the challenge in measurement instrumentation lies in mastering the whole system, not just the electronics. To address this issue, this doctoral dissertation studies whether it would be beneficial to consider a measurement system as a whole from the physical phenomena to the digital recording device, where each piece of the measurement system affects the system performance, rather than as a system consisting of small independent parts such as a sensor or an amplifier that could be designed separately. The objective of this doctoral dissertation is to describe in depth the development of the measurement system taking into account the challenges caused by the electrical and mechanical requirements and the measurement environment. The work is done as an empirical case study in two example applications that are both intended for scientific studies. The cases are a light sensitive biological sensor used in imaging and a gas electron multiplier detector for particle physics. The study showed that in these two cases there were a number of different parts of the measurement system that interacted with each other. Without considering these interactions, the reliability of the measurement may be compromised, which may lead to wrong conclusions about the measurement. For this reason it is beneficial to conceptualize the measurement system as a whole from the physical phenomena to the digital recording device where each piece of the measurement system affects the system performance. The results work as examples of how a measurement system can be successfully constructed to support a study of sensors and electronics.
Resumo:
The Purpose of This Article Is to Show How Costs and Benefits of Geographical Decentralization of R&D Can Be Identified and Compared. the Benefits for the Region That Receives R&D Activities Are Studied in Section 1. They Stem From the Short-Run Multiplier Effect, the Amelioration of Human Capital and the Possible Modernization of the Local Industrial Structure. on the Cost Side Examined in Section 2, the Observable Impacts of the Decentralization of R&D Concern the Loss of Returns to Scale and of the Production of the R&D Output. It Is Shown, in Section 3, That the Flows of Costs and Benefits Must Be Discounted by the Social Cost of Capital. the Main Conclusion of This Article Is That the Decentralization of R&D in a Large Sparsely Populated Country Entails Social Cost and Would Weaken Its Competitive Position in World Commerce. on the Other Hand, the Issue of Decentralization Is More Crucial for Small Countries (In Terms of Population and Economic Size) Than for Large Ones, Like the U.S., Where Critical Masses of Research Efforts Cna Be Simulataneously Attained in Many Fields and in Many Places.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.
Resumo:
La pratique de l’éthique de la recherche en Amérique du Nord, au Canada et au Québec se concentre principalement sur l’évaluation par des instances locales de projets de recherche avec des participants humains à l’aide de principes et de règles d’application énoncées dans des textes normatifs. Ce cadre régulateur vise à protéger les personnes qui participent à des projets de recherche. Bien qu’utile et nécessaire, une telle pratique de l’éthique de la recherche centrée sur le développement et l’application de normes par des instances locales comporte certaines limites qui sont défiées par les nouvelles avancées scientifiques et leur contexte de développement. Cet article vise à appuyer un plaidoyer en faveur de l’élargissement de la pratique actuelle de l’éthique de la recherche, élargissement qui permettrait d’inclure les trois moments d’une démarche éthique complète telle qu’inspirée par le philosophe Paul Ricoeur, soit le moment de l’éthique antérieure, le moment normatif et le moment délibératif. Un tel élargissement des pratiques de l’éthique de la recherche lui permettrait de créer ou multiplier des lieux à différents niveaux pour délibérer sur le sens donné aux avancées scientifiques, leurs finalités, leurs motivations, qu’elles soient implicites ou explicites, tout en tenant compte du contexte social plus global des recherches.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.
Resumo:
Local interactions refer to social and economic phenomena where individuals' choices are influenced by the choices of others who are "close" to them socially or geographically. This represents a fairly accurate picture of human experience. Furthermore, since local interactions imply particular forms of externalities, their presence typically suggests government action. I survey and discuss existing theoretical work on economies with local interactions and point to areas for further research.
Resumo:
Social interactions arguably provide a rationale for several important phenomena, from smoking and other risky behavior in teens to e.g., peer effects in school performance. We study social interactions in dynamic economies. For these economies, we provide existence (Markov Perfect Equilibrium in pure strategies), ergodicity, and welfare results. Also, we characterize equilibria in terms of agents' policy function, spatial equilibrium correlations and social multiplier effects, depending on the nature of interactions. Most importantly, we study formally the issue of the identification of social interactions, with special emphasis on the restrictions imposed by dynamic equilibrium conditions.
Resumo:
À l’heure où l’industrie de l’enregistrement sonore connait un certain nombre de bouleversements, Internet apparait à la fois comme un responsable d’une crise du disque et comme une plate-forme de diffusion et de promotion de la musique enregistrée. C’est dans ce contexte de mutations des industries culturelles que sont les industries de la musique que les labels indépendants voient les possibilités liées à la promotion se multiplier. Notamment par le biais des sites internet que j’envisage ici comme discours encodé et diffusé. Ce mémoire explore deux sites internet officiels de labels indépendants de rap québécois à l’aide de la proposition de la présence du mythe dans le discours de promotion. S’appuyant sur la théorie de Barthes, mon analyse s’articule autour de l’étude de la signification afin de mettre en lumière la façon dont le mythe fonctionne dans le discours. En m’intéressant principalement à l’image et au texte, je mets notamment en valeur le traitement de l’artiste, de la création musicale et du label dans le discours.
Resumo:
Le but de notre étude était de déterminer des variables du modus operandi de meurtres sexuels prédisant la résolution de l’enquête policière. Notre échantillon incluait 265 homicides sexuels de femmes codifiés dans le ViCLAS. La comparaison entre des meurtres sexuels résolus (N=178) et des meurtres sexuels non résolus (N=87), devait également permettre d’identifier les différences entre les issues de l’enquête, les stratégies du meurtrier pour éviter l’appréhension ainsi que les facteurs prédisant la résolution. D’après l’analyse de régression logistique, les prédicteurs tels que l’utilisation d’une arme, l’utilisation d’un bandeau/bâillon et l’agression impliquant une introduction par effraction ou un vol augmentent les probabilités que l’agresseur soit appréhendé. Au contraire, lorsque l’agresseur emporte un objet et que la victime est piétinée, les chances de résoudre l’enquête diminuent. Ces variables du modus operandi traduisent un déficit des compétences criminelles du meurtrier qui peut le pousser à multiplier les erreurs. De manière générale notre étude nous apprend que le contact rapproché entre l’agresseur et la victime favorise la dispersion d’indices propices à la résolution de l’enquête. Le nombre de ces indices est décuplé lorsqu’il y a pénétration vaginale ou anale et lorsque la victime est battue ou mordue. En outre, des contraintes intrinsèques à l’utilisation de stratégies d’évitement expliquent le fait que ces moyens, entravant l’avancée de l’enquête, ne sont que rarement exploités. Enfin, la faible proportion d’actes sexuels et violents observés dans ce genre de crime entrave le processus de résolution. Il en va de même pour l’impact limité des bases de données et de la spécialisation du meurtrier sexuel.