988 resultados para programmation dynamique
Resumo:
Résumé: Introduction : L'utilisation de méthodes endoscopiques peu invasives est en constante augmentation pour le traitement des lésions tumorales précoces de l'oesophage. Le but du traitement comprend l'éradication complète de tous les foyers de dysplasie ou de carcinome in situ, notamment dans les métaplasies intestinales de l'oesophage de Barrett, qui peuvent dégénérer en adénocarcinome. Plusieurs techniques d'ablation de la muqueuse oesophagienne (laser, argon plasma, electrocoagulation, photothérapie dynamique, résection endoscopique) ont été utilisées jusqu'à présent, mais aucune n'a vraiment donné entière satisfaction. Les techniques actuelles de résections endoscopiques par fibroscopie sont entre autres limitées par le grand nombre de séances nécessaires à l'éradication complète de la lésion et par la petite taille des fragments de muqueuse obtenus, ce qui rend l'analyse histologique difficile. Dans notre étude animale, nous avons évalué la faisabilité, l'efficacité et la sécurité d'une méthode de résection endoscopique à l'aide d'un nouvel oesophagoscope rigide. Matériel et méthode : Le résectoscope est formé d'un oesophagoscope rigide avec une fenêtre distale transparente à travers laquelle la muqueuse et une partie de la sous-muqueuse sont aspirées et ensuite réséquées avec une anse thermique. Les diverses fenêtres utilisées ont une taille comprise entre 2.2 et 4.4 cm. Le mouton a été choisi en raison de la ressemblance de son oesophage avec celui de l'humain en ce qui concerne l'épaisseur de son oesophage et sa structure histologique. Nous avons effectué 55 résections hémi-circonférentielles sur 21 animaux et 11 résections circonférentielles sur 11 autres. La Mitomycine-C, une substance qui inhibe la prolifération fibroblastique, a été utilisée dans 8 résections circonférentielles à différents intervalles de temps afin d'empêcher la survenue de sténoses oesophagiennes. Résultats : Toutes les résections hémi-circonférentielles ont permis d'obtenir des fragments compacts de tissu avec des bords nets, ce qui permet une excellente étude histologique. La surface du tissu prélevé était en corrélation avec la taille de la fenêtre du resectoscope. Nous avons ainsi pu obtenir des fragments avec des dimensions comprises entre 6 et 12 cm2. Pour les résections circonférentielles, les tissus étaient obtenus en 2 parties, en inversant de 180° la position de l'appareil. La profondeur de la résection a été optimale dans 58 cas sur 65 avec une découpe précise au niveau de la sous-muqueuse sans lésion de la couche musculaire sous- jacente. Il n'y a pas eu de complications après les résections hémi-circonférentielles. Les complications engendrées par les résections circonférentielles (sténose, perforation) n'ont plus été rencontrées après application locale de Mitomycine-C administrée à des intervalles de temps bien précis. Conclusion : Notre méthode de résection endoscopique de la muqueuse oesophagienne offre une nouvelle approche très prometteuse par rapport aux options déjà disponibles. Elle apparaît supérieure en ce qui concerne la taille de tissu prélevé, la précision et régularité de la profondeur de résection, ainsi que la facilité et sûreté du diagnostic histologique et des marges de sécurité. Les résections hémi-circonférentielles se sont révélées sûres chez le modèle animal. Cette nouvelle technique mérite de plus amples investigations pour les résections circonférentielles avant son utilisation chez l'humain. Abstract: Background and Study Aims: We undertook this retrospective study to evaluate the frequency and prognosis of endoscopic treatment of laterally spreading tumors (LSTs) in the rectum. The recurrence rate for lesions of the lower rectum was compared with that of the upper rectum. Patients and Methods: During the period from July 1989 to June 2002, a total of 1237 rectal tumors were detected. LSTs accounted for 6.9% (85/1237) of all rectal tumors. A total of 224 tumors of the lower rectum were detected among the 1237 rectal tumors. LSTs accounted for 16.1 % (36/224) of all the lower rectal tumors. From 85 LST lesions, 67 were evaluated for their prognosis after endoscopic mucosal resection (EMR). Patients whose LSTs had been resected were followed up by endoscopy at the following frequencies: once 15 (22.4%); twice (more than 1 year), 20 (29.9%); three times (more than 3 years), 21(31.3%); and four times or more (more than 5 years), 11 (16.4%). Results: A total of 67 patients with endoscopically treated LSTs were followed up by endoscopy. We observed recurrences in two lesions of the upper rectum (2/38, 5.3%) and five lesions of the lower rectum (5/29, 17.2%) (P = 0.2364); all seven lesions were resected piecemeal. LSTs whose horizontal margin reached the pectinate line frequently recurred in the lower rectum, at a rate of 80% (4/5). However, all patients were completely cured by additional endoscopic resections, the greatest number of treatments being four. Conclusion: For early detection of recurrence and successful endoscopic cure, further colonoscopic examination within a few months after the first treatment is necessary.
Resumo:
RESUME Les membranes néovasculaires (MNV) compliquent diverses pathologies ophtalmiques. Elles sont à l'origine d'une importante baisse de l'acuité visuelle lorsque elles se situent à proximité de la fovéa. A l'heure actuelle, peu de données relatives à leur association aux pathologies inflammatoires de l'oeil (uvéites) existent. Dans ce travail, la fréquence de MNV a été évaluée parmi 643 patients avec uvéite. Leur impact sur l'acuité visuelle ainsi que le pronostic en fonction des différents traitements effectués ont été étudiés. Les dossiers des 643 patients souffrant d'uvéite ont été étudiés. Les patients présentant une MNV ont été classés en trois groupes en fonction de l'importance de l'inflammation intraoculaire: élevée (2+ cellules dans le vitré), moyenne (1/2+ à 1+ cellules dans le vitré) ou absente (0 cellules dans le vitré). L'évolution de l'acuité visuelle fut considérée comme favorable (+VA: maintient de l'acuité visuelle ou gain d'une ou plusieurs lignes de Snellen) ou défavorable (-VA: perte d'une ou plusieurs lignes Snellen). Chez 9 patients, le traitement instauré a consisté, initialement, en l'administration orale de corticostéroïdes (CST) à haute dose qui, dans le cas d'évolution favorable (-FVA ou régression angiographique de la MNV), était arrêtée en doses dégressives. Dans les évolutions défavorables (-VA ou progression angiographique de la MNV), les CST étaient maintenus à dose moyenne en complémentation d'un traitement par thérapie laser (photothérapie dynamique (PDT), thermothérapie transpupillaire (TTT) ou laser Argon). Ce protocole thérapeutique ne fut appliqué chez trois patients en raison de la non disponibilité de PDT ou d'un diagnostic manqué d'uvéite. Douze patients sur 643 avec uvéite ont présenté une MNV. L'impact visuel moyen était de 4.5 lignes de Snellen et le temps moyen de suivi était de 19.5 mois. Deux patients avec inflammation intraoculaire élevée ont évolué favorablement sous CST seuls. Huit patients avec inflammation intraoculaire moyenne ont évolué favorablement sous CST seuls chez trois patients, alors que quatre patients ont nécessité une thérapie laser additionnelle. Le dernier patient ne fut traité que par thérapie laser sans CST (diagnostic manqué d'uvéite). Deux patients sans inflammation intraoculaire ont eu un pronostic défavorable sous CST seuls (pas d'autre alternative thérapeutique). Notre étude a démontré que les MNV sont une complication rare de l'uvéite qui, après traitement adéquat, ont un pronostic visuel relativement favorable. Bien que les CST semblent être la première modalité thérapeutique, les traitements laser devraient être adoptés tôt dans les situations d'inflammation intraoculaire moyenne ou absente.
Resumo:
La dialectique entre radiodiffusion et histoire des relations culturelles internationales est un domaine largement inexploré. L'objectif de cette thèse est d'analyser le rôle de la Société suisse de radiodiffusion (SSR), société privée qui exerce jusqu'en 1983 le monopole sur l'ensemble des stations de radio suisses, dans l'intensification des relations culturelles internationales de la Confédération. Pour examiner cette dimension des activités de la SSR, je me suis prioritairement penchée sur l'étude de la radio internationale helvétique, dénommée alors « Service suisse d'ondes courtes » (SOC). A l'instar de plusieurs organismes similaires à l'étranger, le SOC remplit dès ses débuts une double mission : resserrer les liens avec la diaspora et faire rayonner le pays hors des frontières nationales. Cette recherche met sur le devant de la scène un acteur médiatique aujourd'hui totalement oublié, le Service suisse d'ondes courtes. Par rapport à l'historiographie des radios internationales, elle mêle approche institutionnelle et, dans la mesure des sources disponibles, l'analyse de la programmation. Elle complète aussi l'histoire de la diplomatie culturelle suisse en rappelant la place du service public audiovisuel parmi les institutions chargées de promouvoir le pays à l'étranger. Pour finir, cette étude constitue également un apport à l'histoire des organisations internationales liées à la radiodiffusion (UIR, UIT). L'analyse du volet international des activités de la SSR a permis de dépasser la seule notion de « puissance » qui a été jusqu'à ces dernières années au coeur des ouvrages dévolus aux radios internationales. L'objectif poursuivi par la SSR ne réside pas tellement dans la diplomatie d'influence (l'exercice d'un « soft power »), qui tend à imposer ses valeurs et un mode de vie, mais plutôt dans la volonté de faire comprendre et reconnaître la culture politique de la Suisse dans le but de renforcer et pérenniser la place de celle-ci dans le concert des nations. Dans cette perspective, la culture devient un moyen utilisé pour transmettre à l'étranger une représentation valorisante du pays, une image de marque (une forme de « Nation Branding » avant l'heure) également utile au secteur touristique et à l'industrie d'exportation. Le Service suisse d'ondes courtes fait ainsi avant tout des relations publiques, un avant-goût de ce que les Américains appelleront dans les années 1960 la « public diplomacy »
Resumo:
Dans le contexte des réformes institutionnelles engagées par la loi MAPTAM, qui propose la création des Métropoles et renforce les Pôles Métropolitaines, cet ouvrage collectif porte un regard dynamique sur le long processus de métropolitain d'un vaste territoire. A travers son histoire et son identité, les différentes étapes de la planification et de gouvernance, l'Aire métropolitaine lyonnaise n'a de cesse de se remettre en question face aux nouveaux défis et aux nouvelles transitions auxquels elle est confrontée. L'expérience métropolitaine lyonnaise apparaît alors comme un bien commun permettant d'affronter les incertitudes actuelles, et sa mise en récit vient consolider un projet territorial qui doit être partagé par ses acteurs institutionnels et socio-économiques, et par plus de 3 millions d'habitants.
Resumo:
Introduction : Les fractures du membre inférieur (MI) de l'enfant traitées par immobilisation plâtrée engendrent une modification significative de la mobilité exacerbée en cas d'obésité. L'accéléromètre est un outil d'évaluation du degré d'activité physique (AP) de l'enfant scientifiquement validé. Il n'a jamais fait l'objet d'étude chez un enfant ayant souffert d'une fracture du MI. Le but de ce travail était d'identifier les problèmes dans l'utilisation d'un accéléromètre comme moyen de mesure de l'AP après fracture nécessitant une décharge du MI. Une adaptation de la réhabilitation post-traumatique en fonction du BMI pourrait alors être proposée. Méthode : Identification d'enfants âgés de 8 et 15 ans, victimes d'une fracture du membre inférieur, consultant aux urgences de l'Hôpital de l'Enfance d'octobre 2013 à mai 2014 et nécessitant une décharge post-traumatique. Etaient exclus les enfants polytraumatisés ou souffrants d'un déficit mental. Données pré-requises des patients: âge, poids, taille, sexe, mécanisme de l'accident, type de fracture et traitement. Proposition de port d'un Actiwatch® Spectrum au poignet et cheville pour la période de remobilisation en décharge. Identification des avantages et problèmes liés à l'usage de l'appareil durant les premiers 30 jours de la période de réhabilitation. Importance : L'absence totale d'étude sur la mobilité post-fracture, la complexité des problèmes liés à la marche en décharge, les contraintes de l'immobilisation plâtrée et la prévalence grandissante de l'obésité pédiatrique justifient la recherche d'un moyen fiable pour quantifier la mobilité d'un enfant en décharge après traumatisme du MI. Résultats : Sur 43 fractures du MI traitées à l'HEL durant la période de l'étude, 13 enfants identifiés, dont 1 exclu pour maladie psychiatrique, 1 refus de participation, 2 transferts immédiats, 2 non inclus pour causes pratiques. Sept garçons âgés de 11 à 16 ans ont accepté le port de l'Actiwatch® pour une durée variant entre 7 et 27 jours (moyenne 15). Nombre d'activités (NA) médians de 5 enfants: 171,79 ±105,37 [cpm]* à J1 et 219,48 ±145,52 [cpm] à J5. NA totales médianes sur 24h : 114'072±44'791 [cpm] à J1 et 234'452 ±134'775 [cpm] à J5. Une dynamique de regain de mobilité est mise en évidence avec intensités maximales et minimales du nombre d'activités pour chacun. La médiane du temps de sommeil des 5 enfants était de 716± 45,5 [mn]. Les problèmes rencontrés ont été d'ordre mécanique (Un Actiwatch® fut défectueux), d'ordre pratique (un perdu et rendu tardivement, un port intermittent, une réaction allergique au bracelet à 4j de port). Conclusions La compliance à l'utilisation de l'Actiwatch® sur toute la durée de la décharge n'était pas optimale. La mobilité moyenne des enfants était objectivable de par leur dynamique, leur intensité maximale et minimale et comparables vis-à-vis de certaines études. Une différence avec les sujets en surpoids est observable. La durée de sommeil de chaque enfant suggère que l'antalgie administrée en cours de traitement est suffisante. Utiliser ce capteur de manière prolongée et sur un grand collectif d'enfants serait un moyen fiable et simple d'objectiver la dynamique de reprise de l'activité physique chez ces patients. Profil de l'étude : observation de cas.
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.
Resumo:
À l’aide d’un modèle de cycles réels, la présente étude vise à expliquer, de façon endogène, les fluctuations des termes de l’échange en Côte-d’Ivoire. Pour ce faire, nous cherchons principalement à répondre aux deux questions suivantes : les chocs d’offre et de demande sur le marché d’exportation suffisent-ils à expliquer les variations des termes de l’échange? Et quelle est leur importance relative dans la dynamique des termes de l’échange? Les résultats montrent que les deux chocs considérés expliquent bien la volatilité des termes de l’échange. Nous avons noté que ces deux sources d’impulsions ont un impact significatif sur les fluctuations économiques en Côte-d’Ivoire.
Resumo:
This paper extends the Competitive Storage Model by incorporating prominent features of the production process and financial markets. A major limitation of this basic model is that it cannot successfully explain the degree of serial correlation observed in actual data. The proposed extensions build on the observation that in order to generate a high degree of price persistence, a model must incorporate features such that agents are willing to hold stocks more often than predicted by the basic model. We therefore allow unique characteristics of the production and trading mechanisms to provide the required incentives. Specifically, the proposed models introduce (i) gestation lags in production with heteroskedastic supply shocks, (ii) multiperiod forward contracts, and (iii) a convenience return to inventory holding. The rational expectations solutions for twelve commodities are numerically solved. Simulations are then employed to assess the effects of the above extensions on the time series properties of commodity prices. Results indicate that each of the features above partially account for the persistence and occasional spikes observed in actual data. Evidence is presented that the precautionary demand for stocks might play a substantial role in the dynamics of commodity prices.
Resumo:
We characterize the solution to a model of consumption smoothing using financing under non-commitment and savings. We show that, under certain conditions, these two different instruments complement each other perfectly. If the rate of time preference is equal to the interest rate on savings, perfect smoothing can be achieved in finite time. We also show that, when random revenues are generated by periodic investments in capital through a concave production function, the level of smoothing achieved through financial contracts can influence the productive investment efficiency. As long as financial contracts cannot achieve perfect smoothing, productive investment will be used as a complementary smoothing device.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.