1000 resultados para Féminisme de la différence
Resumo:
In 1998, three different research groups simultaneously reported increased anxiety-related behavior in tests of conflict in their serotonin 1a (5-HT1a) receptor knockout (KO) line with male mice being more severely affected by 5-HT1a receptor deletion than female KO. Similarly, in the hippocampus, we observed increased dendritic complexity in the stratum radiatum of CA1 pyramidal neurons in male but not in female 5-HT1a receptor KO mice. These observations prompted us to investigate gender- dependent differences of 5-HT1a receptor deletion in hippocampal-related behavioral tasks. Testing our mice in anxiety-related paradigms, we reproduced the original studies showing increased anxiety- related behavior in male 5-HT1a receptor KO mice when compared to male WT mice, but no difference between female 5-HT1a receptor KO and WT mice. Similarly, male 5-HT1a receptor KO mice were impaired in association of aversive stimuli fear conditioning paradigms. We argue that increased dendritic complexity and increased synaptic strength of CA3-CA1 synapses in the stratum radiatum impaired proper signal propagation attributed to overactivation of CA1 pyramidal neurons leading to impaired fear memory of male 5-HT1a receptor KO mice. Similar mechanisms in the ventral hippocampus are likely to have contributed to gender-dependent differences in anxiety-related behavior in our and the original studies from 1998. In this study, we started to shed light on the 5-HT1a receptor downstream signaling pathways involved in dendritogenesis of pyramidal neurons during early postnatal development. We could show that NR2B-containing NMDA receptor during development acts downstream of 5-HT1a receptor and is responsible for increased amount of branching in male 5-HT1a receptor KO mice. Conversely, protein and NR2B mRNA expression was increased in 5-HT1a receptor KO mice at P15. Although the exact signaling cascade of 5-HT1a receptor regulating NR2B-containing NMDA receptor has not been determined, CaMKII is a potential downstream effector to influence transportation and removal of NR2B-containing NMDA receptors to and from the synapse. In contrast, Erk1/2 likely acts downstream of NR2B-containing NMDA receptors and was shown to be sufficient to regulate dendritic branching. Moreover, increased NR2B-containing NMDA receptor mediated cell death via excitotoxicity during development and is likely to be involved in reduced survival of adult born neurons in the hippocampus of 5-HT1a receptor KO male. The convergence of 5-HT1a receptor signaling onto NR2B-containing NMDA receptor signaling enables estrogen to interfere with its downstream pathway via G-protein coupled estrogen receptor 1 activation resulting in normalization of branching and behavior in female 5-HT1a receptor mice. In conclusion, our data strongly suggests a hormone- regulated mechanism that by converging on NR2B-containing NMDA receptor signaling is able to normalize morphology of pyramidal neurons and behavior of female 5-HT1a receptor KO mice. Our findings provide a possible explanation for gender-dependent differences in the occurrence of mental disorders with 5-HT1a receptor abnormalities as a strong predisposing factor. -- En 1998, trois équipes de recherche ont décrit un comportement de type anxieux dans des tests de conflit pour leur souris transgéniques avec une délétion du gène pour le récepteur 5-HT1a de la sérotonine. De plus, les trois groupes rapportent un phénotype plus sévère pour le comportement anxieux chez les souris transgéniques mâles que femelles. Dans l'hippocampe, la région avec la densité de récepteur 5-HT1a la plus élevée dans le télencéphale, nous avons observé dans le stratum radiatum une complexité accrue des arborisations dendritiques des neurones pyramidaux du secteur CA1 chez les souris transgénique mâles mais pas chez les femelles. Cette observation nous a encouragés à initier cette étude sur les différences en fonction du genre utilisant les tests comportementaux en rapport avec les fonctions de l'hippocampe chez les souris déficientes pour le récepteur 5-HT1a.Testant nos souris avec des paradigmes associés à l'anxiété, nous avons reproduit les données originales montrant que les souris transgéniques mâles ont un phénotype plus sévère que les souris mâles sauvages, mais qu'aucune différence n'est observée entre les femelles sauvages et transgéniques. De même, les souris mâles déficientes pour le récepteur 5-HT1a sont handicapées dans les tests de conditionnement au stress avec des stimuli aversifs. Nous faisons l'hypothèse que l'augmentation de la complexité de l'arborisation dendritique et l'augmentation de la force du signal synaptique entres les régions CA3 et CA1 de l'hippocampe dans le stratum radiatum perturbe la propagation du signal nerveux qui conduit à l'hyperactivation des neurones du secteur CA1. Ceci conduit à une mémoire de stress altérée chez les souris mâles déficientes pour le récepteur 5-HT1a. Un mécanisme similaire dans l'hippocampe ventral contribue probablement aux différences en fonction du genre dans les tests pour le comportement de type anxieux qui ont été rapportés dans les études originales de 1998. Les mesures de protéine et de mRNA ont mis en évidence une augmentation de l'expression du récepteur NMDA contenant la sous- unité NR2B dans les souris déficientes pour le récepteur 5-HT1a à P15. Dans les cultures organotypiques d'hippocampe, nous avons commencé à disséquer les messagers secondaires à l'activation du récepteur 5-HT1a qui sont impliqués dans la régulation de la croissance dendritique des neurones pyramidaux pendant la période postnatale précoce. Nous avons démontré que les récepteurs NR2B sont en aval de l'activation du récepteur 5-HT1a et qu'ils sont impliqués dans l'accroissement du nombre de dendrites chez la souris mâle déficiente pour le récepteur 5-HT1a. Bien que la cascade de signalisation du récepteur 5-HT1a pour réguler les récepteurs NMDA contenant le NR2B ne soit pas établie, CaMKII est identifié comme un effecteur potentiel pour altérer le transport du récepteur NMDA à la synapse. D'autre part, Erk1/2 est probablement un messager en aval du NR2B du récepteur NMDA, et a été documenté comme suffisant pour réguler l'arborisation dendritique. L'augmentation de NR2B à la synapse des souris déficientes pour le récepteur 5-HT1a peut conduire à une augmentation de l'excitotoxicité dans les cellules. Nous avons observé une augmentation chez la souris déficiente pour le récepteur 5-HT1a de la mort cellulaire dans des tranches d'hippocampe stimulées, ce qui peut être en relation avec la réduction de la survie des neurones générés dans l'hippocampe de la souris mâle transgénique adulte par rapport à la souris mâle sauvage. De plus, la convergence de la signalisation du récepteur 5-HT1a sur la signalisation de la sous-unité NR2B du récepteur NMDA permet à l'oestrogène d'interférer avec sa voie de signalisation du récepteur de l'oestrogène couplé à une protéine G (GPER-1), ceci permettant à l'oestrogène de réduire la taille de l'arborisation des neurones pyramidaux de CA1 chez la femelle de la souris déficiente pour le récepteur 5-HT1a. En conclusion, nos observations suggèrent fortement qu'un mécanisme hormonal convergeant sur la voie de signalisation de la sous-unité NR2B du récepteur NMDA permet la normalisation de l'exubérance des dendrites des neurones CA1 de l'hippocampe et du comportement des souris femelles déficientes pour le récepteur 5-HT1a. Ceci donne une explication possible pour la différence en fonction du genre dans l'apparition de troubles mentaux avec les variations du récepteur 5-HT1a comme facteur de prédisposition important.
Resumo:
Dans le chapitre « Les paradoxes de l'argumentation en contexte d'éducation: s'accorder sur les désaccords », Muller Mirza part de l'idée qu'à la différence des situations ordinaires de désaccords, les dispositifs utilisant l'argumentation dans des contextes d'éducation demandent aux participants précisément de résoudre ces désaccords. Leur sont donc interdites, par contrat plus ou moins implicite, les échappatoires auxquelles nous recourons volontiers dans les discours quotidiens qui permettent d'éviter de problématiser la question en discussion. C'est dire qu'elle aborde directement une difficulté souvent signalée dans les études sur l'argumentation en contexte éducatif : la tension entre d'une part l'expression de points de vue différents, étape nécessaire à la construction des connaissances, et d'autre part la préservation de la relation entre les interlocuteurs, de leurs faces. Le chapitre propose comme objet de discussion le rôle de cette tension dans des situations d'apprentissage en analysant des productions argumentatives réalisées dans le cadre d'un dispositif particulier. Il invite ainsi à une réflexion non seulement sur les ingrédients des dispositifs pédagogiques qui permettraient de prendre en compte cette tension mais aussi sur les méthodes d'analyse des interactions argumentatives. L'étude de cas met en scène des étudiants de master en psychologie sociale, dans le cadre d'un jeu de rôle : ils sont placés dans la perspective de leur futur métier, et figurent des psychologues conseillant des éducateurs face à des jeunes qui utilisent des insultes racistes entre eux. Le dispositif mis en oeuvre satisfait quatre exigences d'ordre théorique, favorables selon l'auteure à une bonne résolution des désaccords : le ménagement des faces des interlocuteurs en fixant des rôles ne correspondant pas nécessairement aux positions de chacun ; la construction de connaissances,préalable à la discussion ; la médiation de l'échange par un outil, ici un « chat », qui permet d'échanger les points de vue et d'apporter une dimension réflexive en cours d'interaction sur les points de vue exprimés ; le fait de donner du sens à l'activité, en simulant une situation professionnelle potentielle. L'analyse des échanges a été réalisée sur onze corpus constitués par les étudiants en petits groupes de trois ou quatre travaillant sur un logiciel de « chat ». Les questions abordées étaient les suivantes : Comment les interlocuteurs négocient-ils les désaccords qui apparaissent au cours des échanges? Ces désaccords sont-ils propices à une problématisation? Les participants mettent-ils en oeuvre des dynamiques d'« exploration » du désaccord relevé? Cette analyse, inspirée d'une approche socioculturelle reprise en partie des travaux de Neil Mercer sur les « discours exploratoires », met en évidence des dynamiques argumentatives de qualité au cours desquels les désaccords sont non seulement exprimés mais également problématisés au sein des groupes. Elle met entre autres en évidence que le sens de l'activité pour les étudiants est en partie tributaire d'un contrat didactique et pédagogique : leurs échanges sont la base de leur évaluation universitaire. Néanmoins la similitude entre situation d'enseignement et situation professionnelle a largement été perçue par les étudiants et motivante pour eux, ce qui a certainement concouru également à la qualité des échanges.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
Résumé Le cancer implique rarement l'oeil et risque d'être reconnu tardivement. Les tumeurs intraoculaires primaires les plus fréquentes sont le rétinoblastome chez l'enfant et le mélanome uvéal chez l'adulte.Le diagnostic différentiel d'une baisse de vision dans un contexte de cancer systémique est varié. Des métastases uvéales sont souvent associées au cancer du sein ou du poumon. Un masquerade syndrome est l'atteinte oculaire, pseudo-inflammatoire, d'un lymphome primaire non hodgkinien du système nerveux central. Un traitement oncologique médicamenteux ou radique peut induire une toxicité, souvent rétinienne. Les syndromes paranéoplasiques, rares, sont causés par des anticorps anticancéreux réagissant contre la rétine. Si le cancer touche l'oeil, référer le patient rapidement vers un centre spécialisé pourra faire la différence aux niveaux pronostiques vital et visuel. Abstract Cancer involves so rarely the eye that it may be recognized late. The most frequent primary intra-ocular tumours are retinoblastoma in small children and uveal melanoma in adults.Vision loss in systemic cancer has a varied differential diagnosis. Uveal metastases are most often associated with breast cancer, but can herald lung carcinoma. Masquerade syndrome looks like infllammation but represents the ocular involvement of primary CNS non-Hodgkin lymphoma. Systemic cancer drugs, as well as radiotherapy, can cause ocular toxicity, mostly at the retina. In the rare paraneoplastic syndromes, patient's cancer antibodies cross-react with retinal antigens, leading to severe vision loss. When cancer involves the eye, a fast referral into specialized care can signifiicantly improve visual and vital prognosis.
Resumo:
Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]
Resumo:
Cette étude consiste à comparer les coûts de deux procédures de dilatation artérielle coronaire (angioplastie par ballonet et angioplastie avec pose de stent) uniquement lors de la phase de cathérisation (et non pas de l'ensemble des coûts du séjour hospitalier). La première partie traite de l'importance de la maladie coronarienne, de ses traitements et des objectifs de l'étude. La deuxième partie explique les éléments et la méthode qui composent le calcul des coûts, illustre les résultats et compare les résultats des deux procédures. La troisième partie analyse les résultats en identifiant quels types de coûts sont à l'origine de la différence du coût total et en explicitant les limites et les compléments nécessaires à l'étude.
Resumo:
Quelle place occupe la figure de l'« athée sceptique » dans le schéma baylien qui prend à contre-pied tant les apologistes « latitudinaires » (à la Garasse) que les théologiens plus « rigoureux » (à la Voetius) ? Bayle affirme d'une part une « latitude » de l'athéisme « spéculatif » beaucoup plus large que Voetius ne l'aurait accepté, mais d'autre part il fait valoir un concept précis de divinité que des apologistes comme Garasse auraient sans doute jugé trop restrictif. En outre, il est bien conscient de la différence qui sépare toute forme d'athéisme « dogmatique » ou « affirmatif » de l'athéisme « sceptique ». Mais il est important de remarquer que même les sceptiques sont considérés par Bayle comme des athées « positifs » ou des « Athéistes de spéculation » car, pour « être non Théiste, ou Athéiste », il n'est pas nécessaire « d'afirmer que le Théisme est faux ; il sufit de le regarder comme un problême ». Tout cela cadre bien avec sa conviction que, comme pour le théisme, « il y a différents dégrez d'Athéisme ».
Resumo:
In this paper, we provide both qualitative and quantitative measures of the cost of measuring the integrated volatility by the realized volatility when the frequency of observation is fixed. We start by characterizing for a general diffusion the difference between the realized and the integrated volatilities for a given frequency of observations. Then, we compute the mean and variance of this noise and the correlation between the noise and the integrated volatility in the Eigenfunction Stochastic Volatility model of Meddahi (2001a). This model has, as special examples, log-normal, affine, and GARCH diffusion models. Using some previous empirical works, we show that the standard deviation of the noise is not negligible with respect to the mean and the standard deviation of the integrated volatility, even if one considers returns at five minutes. We also propose a simple approach to capture the information about the integrated volatility contained in the returns through the leverage effect.
Resumo:
By reporting his satisfaction with his job or any other experience, an individual does not communicate the number of utils that he feels. Instead, he expresses his posterior preference over available alternatives conditional on acquired knowledge of the past. This new interpretation of reported job satisfaction restores the power of microeconomic theory without denying the essential role of discrepancies between one’s situation and available opportunities. Posterior human wealth discrepancies are found to be the best predictor of reported job satisfaction. Static models of relative utility and other subjective well-being assumptions are all unambiguously rejected by the data, as well as an \"economic\" model in which job satisfaction is a measure of posterior human wealth. The \"posterior choice\" model readily explains why so many people usually report themselves as happy or satisfied, why both younger and older age groups are insensitive to current earning discrepancies, and why the past weighs more heavily than the present and the future.
Resumo:
In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.
Resumo:
Ecole polytechnique de Montréal, département de mathématiques, André Fortin, et Pierre Carreau du département de génie chimique
Resumo:
In this paper, I present a non standard objection to moral impartialism. My idea is that moral impartialism is questionable when it is committed to a principle we have reasons to reject: the principle of self-other symmetry. According to the utilitarian version of the principle, the benefits and harms to the agent are exactly as relevant to the global evaluation of the goodness of his action as the benefits and harms to any other agent. But this view sits badly with the “Harm principle” which stresses the difference between harm to others and harm to the self. According to the deontological version, we have moral duties to ourselves which are exactly symmetrical to our duties to others. But there are reasons to believe that the idea of a duty to the self is not coherent.
Resumo:
Le but de cette étude était de déterminer la contribution de plusieurs facteurs (le design de la tâche, l’orientation d’angle, la position de la tête et du regard) sur la capacité des sujets à percevoir les différences de formes bidimensionnelles (2-D) en utilisant le toucher haptique. Deux séries d'expériences (n = 12 chacune) ont été effectuées. Dans tous les cas, les angles ont été explorés avec l'index du bras tendu. La première expérience a démontré que le seuil de discrimination des angles 2-D a été nettement plus élevé, 7,4°, que le seuil de catégorisation des angles 2-D, 3,9°. Ce résultat étend les travaux précédents, en montrant que la différence est présente dans les mêmes sujets testés dans des conditions identiques (connaissance des résultats, conditions d'essai visuel, l’orientation d’angle). Les résultats ont également montré que l'angle de catégorisation ne varie pas en fonction de l'orientation des angles dans l'espace (oblique, verticale). Étant donné que les angles présentés étaient tous distribués autour de 90°, ce qui peut être un cas particulier comme dans la vision, cette constatation doit être étendue à différentes gammes d'angles. Le seuil plus élevé dans la tâche de discrimination reflète probablement une exigence cognitive accrue de cette tâche en demandant aux sujets de mémoriser temporairement une représentation mentale du premier angle exploré et de la comparer avec le deuxième angle exploré. La deuxième expérience représente la suite logique d’une expérience antérieure dans laquelle on a constaté que le seuil de catégorisation est modifié avec la direction du regard, mais pas avec la position de la tête quand les angles (non visibles) sont explorés en position excentrique, 60° à la droite de la ligne médiane. Cette expérience a testé l'hypothèse que l'augmentation du seuil, quand le regard est dirigé vers l'extrême droite, pourrait refléter une action de l'attention spatiale. Les sujets ont exploré les angles situés à droite de la ligne médiane, variant systématiquement la direction du regard (loin ou vers l’angle) de même que l'emplacement d'angle (30° et 60° vers la droite). Les seuils de catégorisation n’ont démontré aucun changement parmi les conditions testées, bien que le biais (point d'égalité subjective) ait été modifié (décalage aux valeurs inférieurs à 90°). Puisque notre test avec le regard fixé à l’extrême droite (loin) n'a eu aucun effet sur le seuil, nous proposons que le facteur clé contribuant à l'augmentation du seuil vu précédemment (tête tout droit/regard à droite) doit être cette combinaison particulière de la tête/regard/angles et non l’attention spatiale.