972 resultados para Interaction fluide-structure--Modèles mathématiques


Relevância:

30.00% 30.00%

Publicador:

Resumo:

High temperature superconductors were discovered in 1986, but despite considerable research efforts, both experimental and theoretical, these materials remain poorly understood. Because their electronic structure is both inhomogeneous and highly correlated, a full understanding will require knowledge of quasiparticle properties both in real space and momentum space. In this thesis, we will present a theoretical analysis of the scanning tunneling microscopy (STM) data in BSCCO. We introduce the Bogoliubov-De Gennes Hamiltonian and solve it numerically on a two-dimensional 20 x 20 lattice under a magnetic field perpendicular to the surface. We consider a vortex at the center of our model. We introduce a Zn impurity in our lattice as a microscopic probe of the physical properties of BSCCO. By direct numerical diagonalization of the lattice BogoliubovDe Gennes Hamiltonian for different positions of the impurity, we can calculate the interaction between the vortex and the impurity in a d-wave superconductor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The interaction of biological molecules with water is an important determinant of structural properties both in molecular assemblies, and in conformation of individual macromolecules. By observing the effects of manipulating the activity of water (which can be accomplished by limiting its concentration or by adding additional solutes, "osmotic stress"), one can learn something about intrinsic physical properties of biological molecules as well as measure an energetic contribution of closely associated water molecules to overall equilibria in biological reactions. Here two such studies are reported. The first of these examines several species of lysolipid which, while present in relatively low concentrations in biomembranes, have been shown to affect many cellular processes involving membrane-protein or membrane-membrane interactions. Monolayer elastic constants were determined by combining X-ray diffraction and the osmotic stress technique. Spontaneous radii of curvature of lysophosphatidylcholines were determined to be positive and in the range +30A to +70A, while lysophosphatidylethanolamines proved to be essentially flat. Neither lysolipid significantly affected the bending modulus of the monolayer in which it was incorporated. The second study examines the role of water in theprocess of polymerization of actin into filaments. Water activity was manipulated by adding osmolytes and the effect on the equilibrium dissociation constant (measured as the criticalmonomer concentration) was determined. As water activity was decreased, the critical concentration was reduced for Ca-actin but not for Mg-actin, suggesting that 10-12 fewer water molecules are associated with Ca-actin in the polymerized state. Thisunexpectedly small amount of water is discussed in the context of the common structural motif of a nucleotide binding cleft.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper addresses the question of whether R&D should be carried out by an independent research unit or be produced in-house by the firm marketing the innovation. We define two organizational structures. In an integrated structure, the firm that markets the innovation also carries out and finances research leading to the innovation. In an independent structure, the firm that markets the innovation buys it from an independent research unit which is financed externally. We compare the two structures under the assumption that the research unit has some private information about the real cost of developing the new product. When development costs are negatively correlated with revenues from the innovation, the integrated structure dominates. The independent structure dominates in the opposite case.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A full understanding of public affairs requires the ability to distinguish between the policies that voters would like the government to adopt, and the influence that different voters or group of voters actually exert in the democratic process. We consider the properties of a computable equilibrium model of a competitive political economy in which the economic interests of groups of voters and their effective influence on equilibrium policy outcomes can be explicitly distinguished and computed. The model incorporates an amended version of the GEMTAP tax model, and is calibrated to data for the United States for 1973 and 1983. Emphasis is placed on how the aggregation of GEMTAP households into groups within which economic and political behaviour is assumed homogeneous affects the numerical representation of interests and influence for representative members of each group. Experiments with the model suggest that the changes in both interests and influence are important parts of the story behind the evolution of U.S. tax policy in the decade after 1973.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we look at how labor market conditions at different points during the tenure of individuals with firms are correlated with current earnings. Using data on individuals from the German Socioeconomic Panel for the 1985-1994 period, we find that both the contemporaneous unemployment rate and prior values of the unemployment rate are significantly correlated with current earnings, contrary to results for the American labor market. Estimated elasticities vary between 9 and 15 percent for the elasticity of earnings with respect to current unemployment rates, and between 6 and 10 percent with respect to unemployment rates at the start of current firm tenure. Moreover, whereas local unemployment rates determine levels of earnings, national rates influence contemporaneous variations in earnings. We interpret this result as evidence that German unions do, in fact, bargain over wages and employment, but that models of individualistic contracts, such as the implicit contract model, may explain some of the observed wage drift and longer-term wage movements reasonably well. Furthermore, we explore the heterogeneity of contracts over a variety of worker and job characteristics. In particular, we find evidence that contracts differ across firm size and worker type. Workers of large firms are remarkably more insulated from the job market than workers for any other type of firm, indicating the importance of internal job markets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Understanding the dynamics of interest rates and the term structure has important implications for issues as diverse as real economic activity, monetary policy, pricing of interest rate derivative securities and public debt financing. Our paper follows a longstanding tradition of using factor models of interest rates but proposes a semi-parametric procedure to model interest rates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire est consacré à l'étude de l'obligation faite à l'État canadien de consulter les autochtones lorsqu'il envisage de prendre des mesures portant atteinte à leurs droits et intérêts. On s'y interroge sur le sens que peut avoir cette obligation, si elle n'inclut pas celle de s'entendre avec les autochtones. Notre étude retrace d'abord l'évolution de l'obligation de consulter dans la jurisprudence de la Cour suprême du Canada, pour se pencher ensuite sur l'élaboration d'un modèle théorique du processus consultatif. En observant la manière dont la jurisprudence relative aux droits ancestraux a donné naissance à l'obligation de consulter, on constate que c'est en s'approchant au plus près de l'idée d'autonomie gouvernementale autochtone - soit en définissant le titre ancestral, droit autochtone à la terre elle-même - que la Cour a senti le besoin de développer la consultation en tant que véritable outil de dialogue entre l'État et les Premières nations. Or, pour assurer la participation réelle des parties au processus de consultation, la Cour a ensuite dû balancer leur rapport de forces, ce qu'elle a fait en admettant le manque de légitimité du pouvoir étatique sur les autochtones. C'est ainsi qu'après avoir donné naissance au processus de consultation, la jurisprudence relative aux droits ancestraux pourrait à son tour être modifiée substantiellement par son entremise. En effet, l'égalité qu'il commande remet en question l'approche culturaliste de la Cour aux droits ancestraux, et pourrait l'amener à refonder ces droits dans le principe plus égalitaire de continuité des ordres juridiques autochtones. Contrairement à l'approche culturaliste actuelle, ce principe fait place à la reconnaissance juridique de l'autonomie gouvernementale autochtone. La logique interne égalitaire du processus de consultation ayant ainsi été exposée, elle fait ensuite l'objet d'une plus ample analyse. On se demande d'abord comment concevoir cette logique sur le plan théorique. Ceci exige d'ancrer la consultation, en tant qu'institution juridique, dans une certaine vision du droit. Nous adoptons ici celle de Lon Fuller, riche de sens pour nos fins. Puis, nous explicitons les principes structurants du processus consultatif. Il appert de cette réflexion que l'effectivité de la consultation dépend de la qualité du dialogue qu'elle engendre entre les parties. Si elle respecte sa morale inhérente, la consultation peut générer une relation morale unique entre les autochtones et l'État canadien. Cette relation de reconnaissance mutuelle est une relation de don.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures En vue de l'obtention du grade de Docteur en droit (LL.D.)"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La plasticité synaptique est une propriété indispensable à l’acquisition de la mémoire chez toutes les espèces étudiées, des invertébrés aux primates. La formation d’une mémoire débute par une phase de plasticité qui inclut une restructuration synaptique ; ensuite elle se poursuit par la consolidation de ces modifications, contribuant à la mémoire à long terme. Certaines mémoires redeviennent malléables lorsqu’elles sont rappelées. La trace mnésique entre alors dans une nouvelle de phase de plasticité, au cours de laquelle certaines composantes de la mémoire peuvent être mises à jour, puis reconsolidées. L’objectif de la présente thèse est d’étudier les mécanismes cellulaires et moléculaires qui sont activés lors du rappel d’une mémoire. Nous avons utilisé un modèle de conditionnement Pavlovien, combiné à l’administration d’agents pharmacologiques et à l’analyse quantitative de marqueurs de plasticité synaptique, afin d’étudier la dynamique de la mémoire de peur auditive chez des rats Sprague Dawley. La circuiterie neuronale et les mécanismes associatifs impliqués dans la neurobiologie de cette mémoire sont bien caractérisés, en particulier le rôle des récepteurs glutamatergiques de type NMDA et AMPA dans la plasticité synaptique et la consolidation. Nos résultats démontrent que le retour de la trace mnésique à un état de labilité nécessite l’activation des récepteurs NMDA dans l’amygdale baso-latérale à l’instant même du rappel, alors que les récepteurs AMPA sont requis pour l’expression comportementale de la réponse de peur conditionnée. D’autre part, les résultats identifient le rappel comme une phase bien plus dynamique que présumée, et suggèrent que l’expression de la peur conditionnée mette en jeu la régulation du trafic des récepteurs AMPA par les récepteurs NMDA. Le présent travail espère contribuer à la compréhension de la neurobiologie fondamentale de la mémoire. De plus, il propose une intégration des résultats aux modèles animaux d’étude des troubles psychologiques conséquents aux mémoires traumatiques chez l’humain, tels que les phobies et les syndromes de stress post-traumatiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.