982 resultados para dynamique trash
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.
Resumo:
Versão integral da revista no link do editor
Resumo:
RESUMÉ DE LA THÈSE EN FRANÇAIS La présente recherche se veut être un examen de la première enquête quantitative menée en Suisse sur les paroisses et communautés religieuses. La recherche vise de à appréhender la dynamique institutionnelle du champ religieux de ce pays. En relation avec une enquête similaire menée aux États-Unis (National Congregations Study, Chaves, 2004) la présente recherche analyse les données récoltées auprès d'un échantillon représentatif de plus de mille responsables spirituels des communautés religieuses de Suisse. Dans la perspective de la sociologie des organisations, elle examine le positionnement des communautés dans le champ institutionnel pour comprendre comment elles s'activent pour se maintenir dans la durée. Les communautés, pour assurer leurs services sur le long terme, sont imbriquées dans des structures confessionnelles avec des contraintes administratives diverses selon leur reconnaissance légale. En conséquence, la dynamique du champ religieux institutionnel est différenciée en trois environnements, selon leur degré de reconnaissance, qui demandent des réponses particulières à chacun pour pouvoir s'adapter et perdurer. Ces trois environnements poussent les groupes qui s'y logent à adopter des structures identiques. Pratiquer la religion ensemble, c'est ainsi se rendre dans une communauté avec une forme de rituel et d'engagement des membres correspondant à la reconnaissance du groupe par la société. Même pratiquée fortuitement, la religion collective est loin d'être un acte fortuit. RESUMÉ DE LA THÈSE EN ANGLAIS Practice the religion together Analysis of parishes and religious congregations in Switzerland in a perspective of sociology of organization This research is intended as a review of the first quantitative survey conducted in Switzerland on parishes and religious communities. The research aims to understand the dynamics of institutional religious field in this country. In connection with a similar survey conducted in the U.S. (National Congregations Study, Chaves, 2004) this research examines data gathered from a representative sample of over a thousand spiritual leaders of religious communities in Switzerland. From the perspective of sociology of organization, it examines the position of communities in the institutional field to understand how they are activated to maintain over time. Communities to ensure their services over the long term, are nested within denominational structures with different administrative constraints according to their legal recognition. Consequently, the dynamics of the religious field is differentiated into three institutional environments according to their degree of recognition, which require specific responses to each in order to adapt and endure. These three environments grow groups staying there to adopt identical structures.
Resumo:
Résumé: Introduction : L'utilisation de méthodes endoscopiques peu invasives est en constante augmentation pour le traitement des lésions tumorales précoces de l'oesophage. Le but du traitement comprend l'éradication complète de tous les foyers de dysplasie ou de carcinome in situ, notamment dans les métaplasies intestinales de l'oesophage de Barrett, qui peuvent dégénérer en adénocarcinome. Plusieurs techniques d'ablation de la muqueuse oesophagienne (laser, argon plasma, electrocoagulation, photothérapie dynamique, résection endoscopique) ont été utilisées jusqu'à présent, mais aucune n'a vraiment donné entière satisfaction. Les techniques actuelles de résections endoscopiques par fibroscopie sont entre autres limitées par le grand nombre de séances nécessaires à l'éradication complète de la lésion et par la petite taille des fragments de muqueuse obtenus, ce qui rend l'analyse histologique difficile. Dans notre étude animale, nous avons évalué la faisabilité, l'efficacité et la sécurité d'une méthode de résection endoscopique à l'aide d'un nouvel oesophagoscope rigide. Matériel et méthode : Le résectoscope est formé d'un oesophagoscope rigide avec une fenêtre distale transparente à travers laquelle la muqueuse et une partie de la sous-muqueuse sont aspirées et ensuite réséquées avec une anse thermique. Les diverses fenêtres utilisées ont une taille comprise entre 2.2 et 4.4 cm. Le mouton a été choisi en raison de la ressemblance de son oesophage avec celui de l'humain en ce qui concerne l'épaisseur de son oesophage et sa structure histologique. Nous avons effectué 55 résections hémi-circonférentielles sur 21 animaux et 11 résections circonférentielles sur 11 autres. La Mitomycine-C, une substance qui inhibe la prolifération fibroblastique, a été utilisée dans 8 résections circonférentielles à différents intervalles de temps afin d'empêcher la survenue de sténoses oesophagiennes. Résultats : Toutes les résections hémi-circonférentielles ont permis d'obtenir des fragments compacts de tissu avec des bords nets, ce qui permet une excellente étude histologique. La surface du tissu prélevé était en corrélation avec la taille de la fenêtre du resectoscope. Nous avons ainsi pu obtenir des fragments avec des dimensions comprises entre 6 et 12 cm2. Pour les résections circonférentielles, les tissus étaient obtenus en 2 parties, en inversant de 180° la position de l'appareil. La profondeur de la résection a été optimale dans 58 cas sur 65 avec une découpe précise au niveau de la sous-muqueuse sans lésion de la couche musculaire sous- jacente. Il n'y a pas eu de complications après les résections hémi-circonférentielles. Les complications engendrées par les résections circonférentielles (sténose, perforation) n'ont plus été rencontrées après application locale de Mitomycine-C administrée à des intervalles de temps bien précis. Conclusion : Notre méthode de résection endoscopique de la muqueuse oesophagienne offre une nouvelle approche très prometteuse par rapport aux options déjà disponibles. Elle apparaît supérieure en ce qui concerne la taille de tissu prélevé, la précision et régularité de la profondeur de résection, ainsi que la facilité et sûreté du diagnostic histologique et des marges de sécurité. Les résections hémi-circonférentielles se sont révélées sûres chez le modèle animal. Cette nouvelle technique mérite de plus amples investigations pour les résections circonférentielles avant son utilisation chez l'humain. Abstract: Background and Study Aims: We undertook this retrospective study to evaluate the frequency and prognosis of endoscopic treatment of laterally spreading tumors (LSTs) in the rectum. The recurrence rate for lesions of the lower rectum was compared with that of the upper rectum. Patients and Methods: During the period from July 1989 to June 2002, a total of 1237 rectal tumors were detected. LSTs accounted for 6.9% (85/1237) of all rectal tumors. A total of 224 tumors of the lower rectum were detected among the 1237 rectal tumors. LSTs accounted for 16.1 % (36/224) of all the lower rectal tumors. From 85 LST lesions, 67 were evaluated for their prognosis after endoscopic mucosal resection (EMR). Patients whose LSTs had been resected were followed up by endoscopy at the following frequencies: once 15 (22.4%); twice (more than 1 year), 20 (29.9%); three times (more than 3 years), 21(31.3%); and four times or more (more than 5 years), 11 (16.4%). Results: A total of 67 patients with endoscopically treated LSTs were followed up by endoscopy. We observed recurrences in two lesions of the upper rectum (2/38, 5.3%) and five lesions of the lower rectum (5/29, 17.2%) (P = 0.2364); all seven lesions were resected piecemeal. LSTs whose horizontal margin reached the pectinate line frequently recurred in the lower rectum, at a rate of 80% (4/5). However, all patients were completely cured by additional endoscopic resections, the greatest number of treatments being four. Conclusion: For early detection of recurrence and successful endoscopic cure, further colonoscopic examination within a few months after the first treatment is necessary.
Resumo:
RESUME Les membranes néovasculaires (MNV) compliquent diverses pathologies ophtalmiques. Elles sont à l'origine d'une importante baisse de l'acuité visuelle lorsque elles se situent à proximité de la fovéa. A l'heure actuelle, peu de données relatives à leur association aux pathologies inflammatoires de l'oeil (uvéites) existent. Dans ce travail, la fréquence de MNV a été évaluée parmi 643 patients avec uvéite. Leur impact sur l'acuité visuelle ainsi que le pronostic en fonction des différents traitements effectués ont été étudiés. Les dossiers des 643 patients souffrant d'uvéite ont été étudiés. Les patients présentant une MNV ont été classés en trois groupes en fonction de l'importance de l'inflammation intraoculaire: élevée (2+ cellules dans le vitré), moyenne (1/2+ à 1+ cellules dans le vitré) ou absente (0 cellules dans le vitré). L'évolution de l'acuité visuelle fut considérée comme favorable (+VA: maintient de l'acuité visuelle ou gain d'une ou plusieurs lignes de Snellen) ou défavorable (-VA: perte d'une ou plusieurs lignes Snellen). Chez 9 patients, le traitement instauré a consisté, initialement, en l'administration orale de corticostéroïdes (CST) à haute dose qui, dans le cas d'évolution favorable (-FVA ou régression angiographique de la MNV), était arrêtée en doses dégressives. Dans les évolutions défavorables (-VA ou progression angiographique de la MNV), les CST étaient maintenus à dose moyenne en complémentation d'un traitement par thérapie laser (photothérapie dynamique (PDT), thermothérapie transpupillaire (TTT) ou laser Argon). Ce protocole thérapeutique ne fut appliqué chez trois patients en raison de la non disponibilité de PDT ou d'un diagnostic manqué d'uvéite. Douze patients sur 643 avec uvéite ont présenté une MNV. L'impact visuel moyen était de 4.5 lignes de Snellen et le temps moyen de suivi était de 19.5 mois. Deux patients avec inflammation intraoculaire élevée ont évolué favorablement sous CST seuls. Huit patients avec inflammation intraoculaire moyenne ont évolué favorablement sous CST seuls chez trois patients, alors que quatre patients ont nécessité une thérapie laser additionnelle. Le dernier patient ne fut traité que par thérapie laser sans CST (diagnostic manqué d'uvéite). Deux patients sans inflammation intraoculaire ont eu un pronostic défavorable sous CST seuls (pas d'autre alternative thérapeutique). Notre étude a démontré que les MNV sont une complication rare de l'uvéite qui, après traitement adéquat, ont un pronostic visuel relativement favorable. Bien que les CST semblent être la première modalité thérapeutique, les traitements laser devraient être adoptés tôt dans les situations d'inflammation intraoculaire moyenne ou absente.
Resumo:
Dans le contexte des réformes institutionnelles engagées par la loi MAPTAM, qui propose la création des Métropoles et renforce les Pôles Métropolitaines, cet ouvrage collectif porte un regard dynamique sur le long processus de métropolitain d'un vaste territoire. A travers son histoire et son identité, les différentes étapes de la planification et de gouvernance, l'Aire métropolitaine lyonnaise n'a de cesse de se remettre en question face aux nouveaux défis et aux nouvelles transitions auxquels elle est confrontée. L'expérience métropolitaine lyonnaise apparaît alors comme un bien commun permettant d'affronter les incertitudes actuelles, et sa mise en récit vient consolider un projet territorial qui doit être partagé par ses acteurs institutionnels et socio-économiques, et par plus de 3 millions d'habitants.
Resumo:
Introduction : Les fractures du membre inférieur (MI) de l'enfant traitées par immobilisation plâtrée engendrent une modification significative de la mobilité exacerbée en cas d'obésité. L'accéléromètre est un outil d'évaluation du degré d'activité physique (AP) de l'enfant scientifiquement validé. Il n'a jamais fait l'objet d'étude chez un enfant ayant souffert d'une fracture du MI. Le but de ce travail était d'identifier les problèmes dans l'utilisation d'un accéléromètre comme moyen de mesure de l'AP après fracture nécessitant une décharge du MI. Une adaptation de la réhabilitation post-traumatique en fonction du BMI pourrait alors être proposée. Méthode : Identification d'enfants âgés de 8 et 15 ans, victimes d'une fracture du membre inférieur, consultant aux urgences de l'Hôpital de l'Enfance d'octobre 2013 à mai 2014 et nécessitant une décharge post-traumatique. Etaient exclus les enfants polytraumatisés ou souffrants d'un déficit mental. Données pré-requises des patients: âge, poids, taille, sexe, mécanisme de l'accident, type de fracture et traitement. Proposition de port d'un Actiwatch® Spectrum au poignet et cheville pour la période de remobilisation en décharge. Identification des avantages et problèmes liés à l'usage de l'appareil durant les premiers 30 jours de la période de réhabilitation. Importance : L'absence totale d'étude sur la mobilité post-fracture, la complexité des problèmes liés à la marche en décharge, les contraintes de l'immobilisation plâtrée et la prévalence grandissante de l'obésité pédiatrique justifient la recherche d'un moyen fiable pour quantifier la mobilité d'un enfant en décharge après traumatisme du MI. Résultats : Sur 43 fractures du MI traitées à l'HEL durant la période de l'étude, 13 enfants identifiés, dont 1 exclu pour maladie psychiatrique, 1 refus de participation, 2 transferts immédiats, 2 non inclus pour causes pratiques. Sept garçons âgés de 11 à 16 ans ont accepté le port de l'Actiwatch® pour une durée variant entre 7 et 27 jours (moyenne 15). Nombre d'activités (NA) médians de 5 enfants: 171,79 ±105,37 [cpm]* à J1 et 219,48 ±145,52 [cpm] à J5. NA totales médianes sur 24h : 114'072±44'791 [cpm] à J1 et 234'452 ±134'775 [cpm] à J5. Une dynamique de regain de mobilité est mise en évidence avec intensités maximales et minimales du nombre d'activités pour chacun. La médiane du temps de sommeil des 5 enfants était de 716± 45,5 [mn]. Les problèmes rencontrés ont été d'ordre mécanique (Un Actiwatch® fut défectueux), d'ordre pratique (un perdu et rendu tardivement, un port intermittent, une réaction allergique au bracelet à 4j de port). Conclusions La compliance à l'utilisation de l'Actiwatch® sur toute la durée de la décharge n'était pas optimale. La mobilité moyenne des enfants était objectivable de par leur dynamique, leur intensité maximale et minimale et comparables vis-à-vis de certaines études. Une différence avec les sujets en surpoids est observable. La durée de sommeil de chaque enfant suggère que l'antalgie administrée en cours de traitement est suffisante. Utiliser ce capteur de manière prolongée et sur un grand collectif d'enfants serait un moyen fiable et simple d'objectiver la dynamique de reprise de l'activité physique chez ces patients. Profil de l'étude : observation de cas.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.
Resumo:
À l’aide d’un modèle de cycles réels, la présente étude vise à expliquer, de façon endogène, les fluctuations des termes de l’échange en Côte-d’Ivoire. Pour ce faire, nous cherchons principalement à répondre aux deux questions suivantes : les chocs d’offre et de demande sur le marché d’exportation suffisent-ils à expliquer les variations des termes de l’échange? Et quelle est leur importance relative dans la dynamique des termes de l’échange? Les résultats montrent que les deux chocs considérés expliquent bien la volatilité des termes de l’échange. Nous avons noté que ces deux sources d’impulsions ont un impact significatif sur les fluctuations économiques en Côte-d’Ivoire.