858 resultados para Robust Probabilistic Model, Dyslexic Users, Rewriting, Question-Answering


Relevância:

30.00% 30.00%

Publicador:

Resumo:

AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper studies optimal monetary policy in a framework that explicitly accounts for policymakers' uncertainty about the channels of transmission of oil prices into the economy. More specfically, I examine the robust response to the real price of oil that US monetary authorities would have been recommended to implement in the period 1970 2009; had they used the approach proposed by Cogley and Sargent (2005b) to incorporate model uncertainty and learning into policy decisions. In this context, I investigate the extent to which regulator' changing beliefs over different models of the economy play a role in the policy selection process. The main conclusion of this work is that, in the specific environment under analysis, one of the underlying models dominates the optimal interest rate response to oil prices. This result persists even when alternative assumptions on the model's priors change the pattern of the relative posterior probabilities, and can thus be attributed to the presence of model uncertainty itself.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The population of industrialized societies has increased tremendously over the last century, raising the question on how an enhanced age affects cognition. The relevance of two models of healthy aging are contrasted in the present study that both target the functioning of the two cerebral hemispheres. The right hemi-aging model (RHAM) assumes that functions of the right hemisphere decline before those of the left hemisphere. The Hemispheric Asymmetry Reduction in Older Adults (HAROLD) Model suggests that the contralateral hemisphere supports the normally superior hemisphere in a given task resulting in a reduced hemispheric asymmetry overall. In a mixed design, 20 younger and 20 older adults performed both a task assessing a left (lateralized lexical decisions) and a right (sex decisions on chimeric faces) hemisphere advantage. Results indicated that lateralized performance in both tasks was attenuated in older as compared to younger adults, in particular in men. These observations support the HAROLD model. Future studies should investigate whether this reduced functional hemispheric asymmetry in older age results from compensatory processes or from a process of de-differentiation

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'article publié de le cadre de cette thèse est intitulé "Effectiveness of interventions targeting frequent users of emergency departments: A systematic review." Il a été publié par les "Annals of Emergency Medicine (AEM)" en juillet 2011. Le titre en français pourrait être: "Efficacité des interventions ciblant les utilisateurs fréquents des services d'urgence: Une revue systématique." Le titre du journal américain pourrait être: "Annales de Médecine d'Urgence". Il s'agit du journal du "Collège Américain des Médecins d'Urgence", en anglais "American College of Emergency Physicians (ACEP)". L'article a été soumis à l'AEM en raison de l'intérêt que ses rédacteurs en chef portent pour le sujet des utilisateurs fréquents des services d'urgence, démontré depuis plus de dix ans par la publication de nombreux articles dans ce domaine. Le facteur d'impact de l'AEM est de surcroît le plus important des journaux d'urgence, assurant ainsi une large diffusion des articles publiés. Lors de sa publication, l'article a été accompagné d'un éditorial signé par le Docteur Maria C. Raven, médecin au Centre Hospitalier de Bellevue à New York, Etats-Unis.¦Contexte et enjeux¦La Direction Générale du Centre Hospitalier Vaudois (CHUV) finance, dans le cadre du plan stratégique 2009-2013, un axe "populations vulnérables". Cet axe est porté en grande partie par des projets développés au sein de la Policinlique Médicale Universitaire et l'Unité des Populations Vulnérables qui prend en charge, enseigne la prise en charge et s'interroge sur la prise en charge des personnes les plus vulnérables. C'est dans ce contexte que nous avons été amenés à réfléchir à l'existence éventuelle de marqueurs de vulnérabilité; l'utilisation fréquente des services d'urgence par certains individus constitue à n'en pas douter l'un de ces marqueurs. Il existe une importante littérature décrivant en détail ces utilisateurs fréquents des services d'urgence, raison pour laquelle nous avons décidé de faire un pas supplémentaire et de nous interroger sur l'efficacité des interventions (quelle qu'elles soient) ciblant cette population particulière. Nous avons ainsi entrepris une revue systématique de la littérature scientifique médicale et sociale pour approfondir cette question, et c'est précisément le résultat de cette recherche qui constitue ce travail de thèse.¦Conclusions et perspectives¦Les utilisateurs fréquents des services d'urgence sont des individus particulièrement vulnérables, et ce aussi bien aux Etats-Unis, qu'en Europe ou en Australie: ils présentent par exemple une mortalité supérieure aux autres utilisateurs des urgences; ils sont également plus à risque de présenter une consommation abusive d'alcool ou de drogues, une maladie mentale, ou une maladie chronique. Ils sont plus souvent sans abri, sans assurance et d'un statut socio-économique bas.¦De nombreuses interventions on été développées pour prendre en charge les utilisateurs fréquents des urgences. Le but de ces interventions est d'une part de réduire la consommation des services d'urgence et d'autre part d'améliorer la santé au sens large de ces patients vulnérables. C'est en ces termes (réduction de la fréquence d'utilisation des services d'urgence et amélioration de la santé) que l'efficacité d'une intervention est mesurée.¦Parmi l'ensemble des interventions étudiées, l'une semble particulièrement efficace pour réduire le nombre de visites aux urgences et améliorer un certain nombre de marqueurs sociaux (accès à un logement ou à une assurance-maladie). Cette intervention est appelée "case management" (ou "gestion de cas", difficile tentative de traduction de ce concept en français), et consiste en une approche multidisciplinaire (médecins, infirmiers, assistants sociaux) fournissant un service individualisé, dans le cadre de l'hôpital et souvent également dans la communauté. L'approche consiste à évaluer les besoins précis du patient, à l'accompagner dans son parcours de soin, à l'orienter si nécessaire et à mettre en place autour de lui un réseau communiquant de manière adaptée.¦Le "case management" ayant montré son efficacité dans la prise en charge des utilisateurs fréquents des services d'urgence, y-compris en termes de coûts, notre conclusion va dans le sens d'encourager les hôpitaux à évaluer l'importance de ce phénomène dans leur propre pratique et à mettre en place des équipes de prise en charge de ces patients, dans le double but de soutenir des patients particulièrement vulnérables et de réduire la consommation des services d'urgence. Suite à la réflexion suscitée par ce travail de thèse, une telle équipe a été mise en place en 2010, dans un cadre de recherche-action, au niveau du CHUV. Ce projet est dirigé par le Dr Patrick Bodenmann, responsable de l'Unité Populations Vulnérables de la Policlinique Médicale Universitaire de Lausanne. Le Dr Bodenmann est également le directeur de cette thèse et le dernier auteur de la revue systématique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of biochemical and genetic characters to explore species or population relationships has been applied to taxonomic questions since the 60s. In responding to the central question of the evolutionary history of Triatominae, i.e. their monophyletic or polyphyletic origin, two important questions arise (i) to what extent is the morphologically-based classification valid for assessing phylogenetic relationships? and (ii) what are the main mechanisms underlying speciation in Triatominae? Phenetic and genetic studies so far developed suggest that speciation in Triatominae may be a rapid process mainly driven by ecological factors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Altitudinal tree lines are mainly constrained by temperature, but can also be influenced by factors such as human activity, particularly in the European Alps, where centuries of agricultural use have affected the tree-line. Over the last decades this trend has been reversed due to changing agricultural practices and land-abandonment. We aimed to combine a statistical land-abandonment model with a forest dynamics model, to take into account the combined effects of climate and human land-use on the Alpine tree-line in Switzerland. Land-abandonment probability was expressed by a logistic regression function of degree-day sum, distance from forest edge, soil stoniness, slope, proportion of employees in the secondary and tertiary sectors, proportion of commuters and proportion of full-time farms. This was implemented in the TreeMig spatio-temporal forest model. Distance from forest edge and degree-day sum vary through feed-back from the dynamics part of TreeMig and climate change scenarios, while the other variables remain constant for each grid cell over time. The new model, TreeMig-LAb, was tested on theoretical landscapes, where the variables in the land-abandonment model were varied one by one. This confirmed the strong influence of distance from forest and slope on the abandonment probability. Degree-day sum has a more complex role, with opposite influences on land-abandonment and forest growth. TreeMig-LAb was also applied to a case study area in the Upper Engadine (Swiss Alps), along with a model where abandonment probability was a constant. Two scenarios were used: natural succession only (100% probability) and a probability of abandonment based on past transition proportions in that area (2.1% per decade). The former showed new forest growing in all but the highest-altitude locations. The latter was more realistic as to numbers of newly forested cells, but their location was random and the resulting landscape heterogeneous. Using the logistic regression model gave results consistent with observed patterns of land-abandonment: existing forests expanded and gaps closed, leading to an increasingly homogeneous landscape.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIVES: To determine whether nalmefene combined with psychosocial support is cost-effective compared with psychosocial support alone for reducing alcohol consumption in alcohol-dependent patients with high/very high drinking risk levels (DRLs) as defined by the WHO, and to evaluate the public health benefit of reducing harmful alcohol-attributable diseases, injuries and deaths. DESIGN: Decision modelling using Markov chains compared costs and effects over 5 years. SETTING: The analysis was from the perspective of the National Health Service (NHS) in England and Wales. PARTICIPANTS: The model considered the licensed population for nalmefene, specifically adults with both alcohol dependence and high/very high DRLs, who do not require immediate detoxification and who continue to have high/very high DRLs after initial assessment. DATA SOURCES: We modelled treatment effect using data from three clinical trials for nalmefene (ESENSE 1 (NCT00811720), ESENSE 2 (NCT00812461) and SENSE (NCT00811941)). Baseline characteristics of the model population, treatment resource utilisation and utilities were from these trials. We estimated the number of alcohol-attributable events occurring at different levels of alcohol consumption based on published epidemiological risk-relation studies. Health-related costs were from UK sources. MAIN OUTCOME MEASURES: We measured incremental cost per quality-adjusted life year (QALY) gained and number of alcohol-attributable harmful events avoided. RESULTS: Nalmefene in combination with psychosocial support had an incremental cost-effectiveness ratio (ICER) of £5204 per QALY gained, and was therefore cost-effective at the £20,000 per QALY gained decision threshold. Sensitivity analyses showed that the conclusion was robust. Nalmefene plus psychosocial support led to the avoidance of 7179 alcohol-attributable diseases/injuries and 309 deaths per 100,000 patients compared to psychosocial support alone over the course of 5 years. CONCLUSIONS: Nalmefene can be seen as a cost-effective treatment for alcohol dependence, with substantial public health benefits. TRIAL REGISTRATION NUMBERS: This cost-effectiveness analysis was developed based on data from three randomised clinical trials: ESENSE 1 (NCT00811720), ESENSE 2 (NCT00812461) and SENSE (NCT00811941).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aquest informe mira de documentar el projecte GeriaTic, que desenvolupa l'Ajuntament de Barcelona al districte 22@. L'informe fa una anàlisi de la situació de la gent gran en relació amb les tecnologies de la informació i la comunicació en el sector de la salut, el control de l'entorn i el lleure. L'anàlisi de la documentació trobada i la informació extreta d'un grup de discussió amb persones grans usuàries de les TIC permeten identificar el mercat existent, els productes i serveis, les necessitats no cobertes i les bones pràctiques relacionades amb els tres sectors estudiats. Les conclusions de l'estudi assenyalen tres aspectes clau: la necessitat que la tecnologia s'incorpori a la vida quotidiana de les persones, perquè aparegui com a quelcom necessari i útil; la cura en cercar un disseny modular, escalable i integrat de la tecnologia que acompanyi les característiques específiques de la persona i els canvis al llarg del seu cicle vital, i, finalment, la consideració que la incorporació de les TIC en l'àmbit de la gent gran no tan sols involucra la persona, sinó també el conjunt de professionals i la societat en general. Aquests tres aspectes permeten plantejar l'exigència que la incorporació de la tecnologia en la vida de la gent gran abandoni el model assistencial i es presenti a la persona i a la societat com una font de noves possibilitats i una oportunitat per al canvi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Factor analysis as frequent technique for multivariate data inspection is widely used also for compositional data analysis. The usual way is to use a centered logratio (clr)transformation to obtain the random vector y of dimension D. The factor model istheny = Λf + e (1)with the factors f of dimension k & D, the error term e, and the loadings matrix Λ.Using the usual model assumptions (see, e.g., Basilevsky, 1994), the factor analysismodel (1) can be written asCov(y) = ΛΛT + ψ (2)where ψ = Cov(e) has a diagonal form. The diagonal elements of ψ as well as theloadings matrix Λ are estimated from an estimation of Cov(y).Given observed clr transformed data Y as realizations of the random vectory. Outliers or deviations from the idealized model assumptions of factor analysiscan severely effect the parameter estimation. As a way out, robust estimation ofthe covariance matrix of Y will lead to robust estimates of Λ and ψ in (2), seePison et al. (2003). Well known robust covariance estimators with good statisticalproperties, like the MCD or the S-estimators (see, e.g. Maronna et al., 2006), relyon a full-rank data matrix Y which is not the case for clr transformed data (see,e.g., Aitchison, 1986).The isometric logratio (ilr) transformation (Egozcue et al., 2003) solves thissingularity problem. The data matrix Y is transformed to a matrix Z by usingan orthonormal basis of lower dimension. Using the ilr transformed data, a robustcovariance matrix C(Z) can be estimated. The result can be back-transformed tothe clr space byC(Y ) = V C(Z)V Twhere the matrix V with orthonormal columns comes from the relation betweenthe clr and the ilr transformation. Now the parameters in the model (2) can beestimated (Basilevsky, 1994) and the results have a direct interpretation since thelinks to the original variables are still preserved.The above procedure will be applied to data from geochemistry. Our specialinterest is on comparing the results with those of Reimann et al. (2002) for the Kolaproject data

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a complete solution for creating accurate 3D textured models from monocular video sequences. The methods are developed within the framework of sequential structure from motion, where a 3D model of the environment is maintained and updated as new visual information becomes available. The camera position is recovered by directly associating the 3D scene model with local image observations. Compared to standard structure from motion techniques, this approach decreases the error accumulation while increasing the robustness to scene occlusions and feature association failures. The obtained 3D information is used to generate high quality, composite visual maps of the scene (mosaics). The visual maps are used to create texture-mapped, realistic views of the scene

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uncertainty quantification of petroleum reservoir models is one of the present challenges, which is usually approached with a wide range of geostatistical tools linked with statistical optimisation or/and inference algorithms. Recent advances in machine learning offer a novel approach to model spatial distribution of petrophysical properties in complex reservoirs alternative to geostatistics. The approach is based of semisupervised learning, which handles both ?labelled? observed data and ?unlabelled? data, which have no measured value but describe prior knowledge and other relevant data in forms of manifolds in the input space where the modelled property is continuous. Proposed semi-supervised Support Vector Regression (SVR) model has demonstrated its capability to represent realistic geological features and describe stochastic variability and non-uniqueness of spatial properties. On the other hand, it is able to capture and preserve key spatial dependencies such as connectivity of high permeability geo-bodies, which is often difficult in contemporary petroleum reservoir studies. Semi-supervised SVR as a data driven algorithm is designed to integrate various kind of conditioning information and learn dependences from it. The semi-supervised SVR model is able to balance signal/noise levels and control the prior belief in available data. In this work, stochastic semi-supervised SVR geomodel is integrated into Bayesian framework to quantify uncertainty of reservoir production with multiple models fitted to past dynamic observations (production history). Multiple history matched models are obtained using stochastic sampling and/or MCMC-based inference algorithms, which evaluate posterior probability distribution. Uncertainty of the model is described by posterior probability of the model parameters that represent key geological properties: spatial correlation size, continuity strength, smoothness/variability of spatial property distribution. The developed approach is illustrated with a fluvial reservoir case. The resulting probabilistic production forecasts are described by uncertainty envelopes. The paper compares the performance of the models with different combinations of unknown parameters and discusses sensitivity issues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ : Le traitement répété à la phencyclidine (PCP), un bloqueur du récepteur NMDA (NMDAR), reproduit chez les rongeurs une partie de la symptomatologie typique de la schizophrénie. Le blocage prolongé du NMDAR par la PCP mime une hypofunction du NMDAR, une des principales altérations supposées exister dans les cerveaux des patients schizophréniques. Le but de notre étude était d'examiner les conséquences neurochimiques, métaboliques et fonctionnelles du traitement répété à la phencyclidine in vivo, au niveau du cortex préfrontal (cpf), une région cérébrale qui joue un rôle dans les déficits cognitifs observés chez les patients schizophréniques. Pour répondre à cette question, les rats ou les souris ont reçu chaque jour une injection soit de PCP (5 mg/kg), soit de solution saline, pendant 7 ou 14 jours. Les animaux ont ensuite été sacrifiés au moins 24 heures après le dernier traitement. Des tranches aiguës du cpf ont été préparées rapidement, puis stimulées avec une concentration élevée de KCI, de manière à induire une libération de glutamate à partir des terminaisons synaptiques excitatrices. Les résultats montrent que les tranches du cpf des animaux traités à la PCP ont libéré une quantité de glutamate significativement inférieure par rapport à celles des animaux contrôle. Ce déficit de libération a persisté 72 heures après la fin du traitement, tandis qu'il n'était pas observé dans le cortex visuel primaire, une autre région corticale. En outre, le traitement avec des antipsychotiques, l'halopéridol ou l'olanzapine, a supprimé le déficit induit par la PCP. Le même déficit de libération a été remarqué sur des synaptosomes obtenus à partir du cpf des animaux traités à la phenryclidine. Cette observation indique que la PCP induit une modification plastique adaptative du mécanisme qui contrôle la libération du glutamate dans les terminaisons synaptiques. Nous avons découvert que cette modification implique la sous-régulation d'un NMDAR présynaptique, qui serait doué d'un rôle d'autorécepteur stimulateur de la libération du glutamate. Grâce à des tests comportementaux conduits en parallèle et réalisés pour évaluer la fonctionnalité du cpf, nous avons observé chez les souris traitées à la PCP une flexibilité comportementale réduite lors d'un test de discrimination de stimuli visuels/tactiles. Le déficit cognitif était encore présent 4 jours après la dernière administration de PCP. La technique de l'autoradiographie quantitative du [14C]2-deoxyglucose a permis d'associer ce déficit à une réduction de l'activité métabolique cérébrale pendant le déroulement du test, particulièrement au niveau du cpf. Dans l'ensemble, nos résultats suggèrent que le blocage prolongé du NMDAR lors de l'administration répétée de PCP produit un déficit de libération du glutamate au niveau des terminaisons synaptiques excitatrices du cpf. Un tel déficit pourrait être provoqué par la sousrégulation d'un NMDAR présynaptique, qui aurait une fonction de stimulateur de libération; la transmission excitatrice du cpf s'en trouverait dans ce cas réduite. Ce résultat est en ligne avec l'activité métabolique et fonctionnelle réduite du cpf et l'observation de déficits cognitifs induits lors de l'administration de la PCP. ABSTRACT : Sub-chronic treatment with phencyclidine (PCP), an NMDA receptor (NMDAR) channel blocker, reproduces in rodents part of the symptomatology associated to schizophrenia in humans. Prolonged pharmacological blockade of NMDAR with PCP mimics NMDAR hypofunction, one of the main alterations thought to take place in the brains of schizophrenics. Our study was aimed at investigating the neurochemical, metabolic and behavioral consequences of repeated PCP administration in vivo, focusing on the functioning of the prefrontal cortex (pfc), a brain region highly relevant for the cognitive deficits observed in schizophrenic patients. Rats or mice received a daily administration of either PCP (5 mg/kg) or saline for 7 or 14 days. At least 24 hours after the last treatment the animals were sacrificed. Acute slices of the pfc were quickly prepared and challenged with high KCl to induce synaptic glutamate release. Pfc slices from PCP-treated animals released significantly less glutamate than slices from salinetreated animals. The deficit persisted 72 hours after the end of the treatment, while it was not observed in another cortical region: the primary visual cortex. Interestingly, treatment with antipsychotic drugs, either haloperidol or olanzapine, reverted the glutamate release defect induced by PCP treatment. The same release defect was observed in synaptosomes prepared from the pfc of PCP-treated animals, indicating that PCP induces a plastic adaptive change in the mechanism controlling glutamate release in the glutamatergic terminals. We discovered that such change most likely involves the down-regulation of a newly identified, pre-synaptic NMDAR with stimulatory auto-receptor function on glutamate release. In parallel sets of behavioral experiments challenging pfc function, mice sub-chronically treated with PCP displayed reduced behavioral flexibility (reversal learning) in a visual/tactile-cued discrimination task. The cognitive deficit was still evident 4 days after the last PCP administration and was associated to reduced brain metabolic activity during the performance of the behavioral task, notably in the pfc, as determined by [14C]2-deoxyglucose quantitative autoradiography. Clverall, our findings suggest that prolonged NMDAR blockade by repeated PCP administration results in a defect of glutamate release from excitatory afferents in the pfc, possibly ascribed to down-regulation of apre-synaptic stimulatory NMDAR. Deficient excitatory neurotransmission in the pfc is consistent with the reduced metabolic and functional activation of this area and the observed PCP-induced cognitive deficits.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper a novel rank estimation technique for trajectories motion segmentation within the Local Subspace Affinity (LSA) framework is presented. This technique, called Enhanced Model Selection (EMS), is based on the relationship between the estimated rank of the trajectory matrix and the affinity matrix built by LSA. The results on synthetic and real data show that without any a priori knowledge, EMS automatically provides an accurate and robust rank estimation, improving the accuracy of the final motion segmentation

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The paper discusses maintenance challenges of organisations with a huge number of devices and proposes the use of probabilistic models to assist monitoring and maintenance planning. The proposal assumes connectivity of instruments to report relevant features for monitoring. Also, the existence of enough historical registers with diagnosed breakdowns is required to make probabilistic models reliable and useful for predictive maintenance strategies based on them. Regular Markov models based on estimated failure and repair rates are proposed to calculate the availability of the instruments and Dynamic Bayesian Networks are proposed to model cause-effect relationships to trigger predictive maintenance services based on the influence between observed features and previously documented diagnostics

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract :This article examines the interplay of text and image in The Fairy Tales of Charles Perrault (1977), translated by Angela Carter and illustrated by Martin Ware, as a form of intersemiotic dialogue that sheds new light on Carter's work. It argues that Ware's highly original artwork based on the translation not only calls into question the association of fairy tales with children's literature (which still characterizes Carter's translation), but also captures an essential if heretofore neglected aspect of Carter's creative process, namely the dynamics between translating, illustrating and rewriting classic tales. Several elements from Ware's illustrations are indeed taken up and elaborated on in The Bloody Chamber and Other Stories (1979), the collection of "stories about fairy stories" that made Carter famous. These include visual details and strategies that she transposed to the realm of writing, giving rise to reflections on the relation between visuality and textuality.RésuméCet article considère l'interaction du texte et de l'image dans les contes de Perrault traduits par Angela Carter et illustrés par Martin Ware (The Fairy Tales of Charles Perrault, 1977) comme une forme de dialogue intersémiotique particulièrement productif. Il démontre que les illustrations originales de Ware ne mettent pas seulement en question l'assimilation des contes à la littérature de jeunesse (qui est encore la perspective adoptée par la traductrice dans ce livre), mais permettent aussi de saisir un aspect essentiel bien que jusque là ignoré du procession de création dans l'oeuvre de Carter, à savoir la dynamique qui lie la traduction, l'illustration et la réécriture des contes classiques. Plusieurs éléments des illustrations de Ware sont ainsi repris et élaborés dans The Bloody Chamber and Other Stories (1979), la collection de "stories about fairy stories" qui rendit Carter célèbre. La transposition de détails et de stratégies visuelles dans l'écriture donnent ainsi l'occasion de réflexions sur les rapports entre la visualité et la textualité.