970 resultados para GPC with Restrictions
Resumo:
In This Paper Several Additional Gmm Specification Tests Are Studied. a First Test Is a Chow-Type Test for Structural Parameter Stability of Gmm Estimates. the Test Is Inspired by the Fact That \"Taste and Technology\" Parameters Are Uncovered. the Second Set of Specification Tests Are Var Encompassing Tests. It Is Assumed That the Dgp Has a Finite Var Representation. the Moment Restrictions Which Are Suggested by Economic Theory and Exploited in the Gmm Procedure Represent One Possible Characterization of the Dgp. the Var Is a Different But Compatible Characterization of the Same Dgp. the Idea of the Var Encompassing Tests Is to Compare Parameter Estimates of the Euler Conditions and Var Representations of the Dgp Obtained Separately with Parameter Estimates of the Euler Conditions and Var Representations Obtained Jointly. There Are Several Ways to Construct Joint Systems Which Are Discussed in the Paper. Several Applications Are Also Discussed.
Resumo:
Il y a 150 ans, John Stuart Mill dénonçait l'emprise tyrannique de la morale publique sur la vie des individus et affirmait que le principe du préjudice à autrui constitue l'unique critère en vertu duquel l'État peut légitimement interférer avec la liberté individuelle. Près d'un siècle plus tard, en réaction au rapport Wolfenden, Lord Devlin articulait une version de la thèse du moralisme juridique en faveur du maintien de l'interdiction criminelle des pratiques homosexuelles en privé entre adultes consentants. Cette thèse du moralisme juridique a fait l'objet de nombreuses critiques. Selon deux des plus influents philosophes et théoriciens du droit du XXe siècle, Herbert L.A. Hart et Ronald Dworkin, le rôle légitime des valeurs de la communauté, dans la justification de l'intervention coerctive de l'État dans la vie des individus, doit être déterminé du point de vue de la morale critique. Ces débats philosophiques ont profondément influencé le discours judiciaire au Canada. La jurisprudence de la Cour suprême du Canada depuis l'avènement de la Charte témoigne de deux tendances dans l'interprétation et l'application du principe du préjudice lors de l'examen de la légitimité des objectifs législatifs à la première étape du test Oakes. Selon une première approche, qui légitimise souvent un activisme judiciaire, la justification des mesures attentatoires doit reposer sur la démonstration d'un préjudice aux valeurs officiellement reconnues. Selon une deuxième approche, qui préconise plutôt une attitude de déférence envers les choix moraux du législateur, la démonstration d'un préjudice n'est pas un prérequis : l'existence de considérations morales objectives suffit.
Resumo:
Social interactions arguably provide a rationale for several important phenomena, from smoking and other risky behavior in teens to e.g., peer effects in school performance. We study social interactions in dynamic economies. For these economies, we provide existence (Markov Perfect Equilibrium in pure strategies), ergodicity, and welfare results. Also, we characterize equilibria in terms of agents' policy function, spatial equilibrium correlations and social multiplier effects, depending on the nature of interactions. Most importantly, we study formally the issue of the identification of social interactions, with special emphasis on the restrictions imposed by dynamic equilibrium conditions.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Comme les études sur la couverture médiatique ont démontré qu’elle influence pratiquement toute personne qu’elle touche, des consommateurs aux jurés aux témoins, les deux études de cette thèse doctorale ont respectivement examiné l’opinion du public sur l’imposition de restrictions sur les médias dans les palais des justices et l’impact de la couverture médiatique sur la santé mentale des victimes de crime. Le gouvernement québécois a récemment introduit des restrictions sur les médias dans les palais de justice afin de minimiser l’influence des journalistes et des caméramans. Bien que l’affaire a atteint la Cour suprême du Canada, une étude préliminaire a trouvé que le public est largement favorable à ces restrictions (Sabourin, 2006). La première partie de cette thèse doctorale cherchait à approfondir ce sujet avec un échantillon plus représentatif de la population. Deux cent quarante-trois participants comprenant six groupes expérimentaux ont rempli des questionnaires mesurant leur opinion de ces restrictions. Les participants ont été divisé en deux conditions expérimentales où ils ont visionné soit des clips audiovisuels démontrant une atmosphère de débordement dans des palais de justice ou des clips plutôt calmes. Un troisième groupe n’a visionné aucun clip audiovisuel. De plus, il y avait deux versions du questionnaire ayant 20 items où les questions ont été présenté en sens inverse. L’étude a trouvé qu’une grande majorité des participants, soit presque 79 pourcent, ont supporté la restriction des médias dans les palais de justice. Il est intéressant de noter qu’un des groupes n’a pas supporté les restrictions – le groupe contrôle qui a lu les énoncés supportant l’absence des restrictions en premier. La deuxième composante de cette thèse doctorale a examiné l’impact des médias sur les victimes de crime. De nombreuses études expérimentales ont démontré que les victimes de crime sont particulièrement susceptibles à des problèmes de santé mentale. En effet, elles ont trois fois plus de chances de développer un trouble de stress post-traumatique (TSPT) que la population générale. Une étude a confirmé cette conclusion et a trouvé que les victimes de crimes qui avaient une impression plutôt négative de leur couverture médiatique avaient les taux les plus élévés de TSPT (Maercker & Mehr, 2006). Dans l’étude actuelle, vingt-trois victimes de crimes ont été interviewé en utilisant une technique narrative et ont complété deux questionnaires mésurant leur symptômes du TSPT et d’anxiété, respectivement. Une grande proportion des participantes avaient des symptômes de santé mentale et des scores élévés sur une échelle évaluant les symptômes du TSPT. La majorité des narratives des participants étaient négatives. Les thèmes les plus communs incluent dans ces narratives étaient l’autoculpabilisation et une méfiance des autres. La couverture médiatique ne semblaient pas être liée à des symptômes de santé mentale, quoique des facteurs individuels pourraient expliquer pourquoi certains participants ont été favorables envers leur couverture médiatique et d’autres ne l’été pas. Les résultats de ces deux études suggèrent que le public approuve la restriction des médias dans les palais de justice et que des facteurs individuels pourraient expliqués comment la couverture médiatique affecte les victimes de crime. Ces résultats ajoutent à la littérature qui questionne les pratiques actuelles qu’utilisent les médias.
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
This thesis entitled Exceptions and limitations to intellectual property rights with special reference to patent and copyright law.The study on the limitations and exceptions to copyright and patent was mainly characterized by its diversity and flexibility. The unique feature of limited monopoly appended to intellectual property was always a matter of wide controversy.The historical analysis substantiated this instrumentalist philosophy of intellectual property.the study from a legal space characterized by diversity and flexibility and end up in that legal space being characterized by homogeneity and standardization. The issue of flexibility and restrictiveness in the context of TRIPS is the next challenging task. Before devising flexibility to TST, the question to be answered is whether such a mechanism is desirable in the context of TRIPS.In conclusion it is submitted to reorient the intellectual property framework in the context of the noble public interest objectives.
Resumo:
In the absence of entry barrier or regulatory restrictions, Non Banking Financial Companies frantically grew and accessed the public deposit without any regulatory control. The deposit of NBFCs grew from Rs. 41.9 crore in 1971 to 53116.0 crore in 1997. This growth was the result of a combined effect of increase in the number of NBFCs and increase in the amount of deposits. The deposits amazed as above was invested in various assets especially that in motor vehicles by these asset financing NBFCs. Various tactics were adopted by these NBFCs and their agents for recovering the receivable outstanding from such assets. Both central government and RBI were concerned about the protection of depositors‘ interest and various committees were set up to frame a comprehensive regulation for the functioning of these NBFCs.
Resumo:
Various polyurethanes containing photoactive bis(azo) and bis(o-nitrobenzyl) groups in the main chain were synthesized by polyaddition reactions of diols such as bis(4-hydroxyphenylazo)-2,20-dinitrodiphenylmethane, 4-hydroxy-3-methylphenylazo- 40-hydroxyphenylazo-2,20-dinitrodiphenylmethane and bis(4-hydroxy-3- methylphenylazo)-2,20-dinitrodiphenylmethane with hexamethylene di-isocyanate (HMDI), in dimethyl acetamide (DMAc) in the presence of di-n-butyltin dilaurate (DBTDL) as catalyst. All of them were characterized by IR, UV-vis, 1H NMR and 13C NMR spectra and also by thermogravimetric analysis (TGA), differential scanning calorimetry (DSC) and gel permeation chromatography (GPC).
Resumo:
The restarting automaton is a restricted model of computation that was introduced by Jancar et al. to model the so-called analysis by reduction, which is a technique used in linguistics to analyze sentences of natural languages. The most general models of restarting automata make use of auxiliary symbols in their rewrite operations, although this ability does not directly correspond to any aspect of the analysis by reduction. Here we put restrictions on the way in which restarting automata use auxiliary symbols, and we investigate the influence of these restrictions on their expressive power. In fact, we consider two types of restrictions. First, we consider the number of auxiliary symbols in the tape alphabet of a restarting automaton as a measure of its descriptional complexity. Secondly, we consider the number of occurrences of auxiliary symbols on the tape as a dynamic complexity measure. We establish some lower and upper bounds with respect to these complexity measures concerning the ability of restarting automata to recognize the (deterministic) context-free languages and some of their subclasses.
Resumo:
Following the 1995 “pill scare” relating to the risk of venous thrombosis from taking second- or third-generation oral contraceptives, the Committee on Safety of Medicines (CSM) withdrew their earlier recommended restrictions on the use of third-generation pills and published recommended wording to be used in patient information leaflets. However, the effectiveness of this wording has not been tested. An empirical study (with 186 pill users, past users, and non-users) was conducted to assess understanding, based on this wording, of the absolute and relative risk of thrombosis in pill users and in pregnancy. The results showed that less than 12% of women in the (higher education) group fully understood the absolute levels of risk from taking the pill and from being pregnant. Relative risk was also poorly understood, with less than 40% of participants showing full understanding, and 20% showing no understanding. We recommend that the CSM revisit the wording currently provided to millions of women in the UK.
Resumo:
The binding specificities of a panel of avian influenza virus subtype H5 hemagglutinin (RA) proteins bearing mutations at key residues in the receptor binding site were investigated. The results demonstrate that two simultaneous mutations in the receptor binding site resulted in H5 RA binding in a pattern similar to that shown by human viruses. Coexpression of the ion channel protein, M2, from most avian and human strains tested protected H5 RA conformation during trafficking, indicating that no genetic barrier to the reassortment of the H5 surface antigen gene with internal genes of human viruses existed at this level.
Resumo:
Finding the smallest eigenvalue of a given square matrix A of order n is computationally very intensive problem. The most popular method for this problem is the Inverse Power Method which uses LU-decomposition and forward and backward solving of the factored system at every iteration step. An alternative to this method is the Resolvent Monte Carlo method which uses representation of the resolvent matrix [I -qA](-m) as a series and then performs Monte Carlo iterations (random walks) on the elements of the matrix. This leads to great savings in computations, but the method has many restrictions and a very slow convergence. In this paper we propose a method that includes fast Monte Carlo procedure for finding the inverse matrix, refinement procedure to improve approximation of the inverse if necessary, and Monte Carlo power iterations to compute the smallest eigenvalue. We provide not only theoretical estimations about accuracy and convergence but also results from numerical tests performed on a number of test matrices.
Resumo:
A Bayesian method of estimating multivariate sample selection models is introduced and applied to the estimation of a demand system for food in the UK to account for censoring arising from infrequency of purchase. We show how it is possible to impose identifying restrictions on the sample selection equations and that, unlike a maximum likelihood framework, the imposition of adding up at both latent and observed levels is straightforward. Our results emphasise the role played by low incomes and socio-economic circumstances in leading to poor diets and also indicate that the presence of children in a household has a negative impact on dietary quality.
Resumo:
A number of transient climate runs simulating the last 120kyr have been carried out using FAMOUS, a fast atmosphere-ocean general circulation model (AOGCM). This is the first time such experiments have been done with a full AOGCM, providing a three-dimensional simulation of both atmosphere and ocean over this period. Our simulation thus includes internally generated temporal variability over periods from days to millennia, and physical, detailed representations of important processes such as clouds and precipitation. Although the model is fast, computational restrictions mean that the rate of change of the forcings has been increased by a factor of 10, making each experiment 12kyr long. Atmospheric greenhouse gases (GHGs), northern hemisphere ice sheets and variations in solar radiation arising from changes in the Earth's orbit are treated as forcing factors, and are applied either separately or combined in different experiments. The long-term temperature changes on Antarctica match well with reconstructions derived from ice-core data, as does variability on timescales longer than 10 kyr. Last Glacial Maximum (LGM) cooling on Greenland is reasonably well simulated, although our simulations, which lack ice-sheet meltwater forcing, do not reproduce the abrupt, millennial scale climate shifts seen in northern hemisphere climate proxies or their slower southern hemisphere counterparts. The spatial pattern of sea surface cooling at the LGM matches proxy reconstructions reasonably well. There is significant anti-correlated variability in the strengths of the Atlantic Meridional Overturning Circulation (AMOC) and the Antarctic Circumpolar Current (ACC) on timescales greater than 10kyr in our experiments. We find that GHG forcing weakens the AMOC and strengthens the ACC, whilst the presence of northern hemisphere ice-sheets strengthens the AMOC and weakens the ACC. The structure of the AMOC at the LGM is found to be sensitive to the details of the ice-sheet reconstruction used. The precessional component of the orbital forcing induces ~20kyr oscillations in the AMOC and ACC, whose amplitude is mediated by changes in the eccentricity of the Earth's orbit. These forcing influences combine, to first order, in a linear fashion to produce the mean climate and ocean variability seen in the run with all forcings.