200 resultados para Récepteur couplé au protéine G
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
AIM: In the past few years, spectacular progress in neuroscience has led to the emergence of a new interdisciplinary field, the so-called "neurolaw" whose goal is to explore the effects of neuroscientific discoveries on legal proceedings and legal rules and standards. In the United States, a number of neuroscientific researches are designed specifically to explore legally relevant topics and a case-law has already been developed. In Europe, neuroscientific evidence is increasingly being used in criminal courtrooms, as part of psychiatric testimony, nourishing the debate about the legal implications of brain research in psychiatric-legal settings. Though largely debated, up to now the use of neuroscience in legal contexts had not specifically been regulated by any legislation. In 2011, with the new bioethics law, France has become the first country to admit by law the use of brain imaging in judicial expertise. According to the new law, brain imaging techniques can be used only for medical purposes, or scientific research, or in the context of judicial expertise. This study aims to give an overview of the current state of the neurolaw in the US and Europe, and to investigate the ethical issues raised by this new law and its potential impact on the rights and civil liberties of the offenders. METHOD: An overview of the emergence and development of "neurolaw" in the United States and Europe is given. Then, the new French law is examined in the light of the relevant debates in the French parliament. Consequently, we outline the current tendencies in Neurolaw literature to focus on assessments of responsibility, rather than dangerousness. This tendency is analysed notably in relation to the legal context relevant to criminal policies in France, where recent changes in the legislation and practice of forensic psychiatry show that dangerousness assessments have become paramount in the process of judicial decision. Finally, the potential interpretations of neuroscientific data introduced into psychiatric testimonies by judges are explored. RESULTS: The examination of parliamentary debates showed that the new French law allowing neuroimaging techniques in judicial expertise was introduced in the aim to provide a legal framework that would protect the subject against potential misuses of neuroscience. The underlying fear above all, was that this technology be used as a lie detector, or as a means to predict the subject's behaviour. However, the possibility of such misuse remains open. Contrary to the legislator's wish, the defendant is not fully guaranteed against uses of neuroimaging techniques in criminal courts that would go against their interests and rights. In fact, the examination of the recently adopted legislation in France shows that assessments of dangerousness and of risk of recidivism have become central elements of the criminal policy, which makes it possible, if not likely that neuroimaging techniques be used for the evaluation of the dangerousness of the defendant. This could entail risks for the latter, as judges could perceive neuroscientific data as hard evidence, more scientific and reliable than the soft data of traditional psychiatry. If such neuroscientific data are interpreted as signs of potential dangerousness of a subject rather than as signs of criminal responsibility, defendants may become subjected to longer penalties or measures aiming to ensure public safety in the detriment of their freedom. CONCLUSION: In the current context of accentuated societal need for security, the judge and the expert-psychiatrist are increasingly asked to evaluate the dangerousness of a subject, regardless of their responsibility. Influenced by this policy model, the judge might tend to use neuroscientific data introduced by an expert as signs of dangerousness. Such uses, especially when they subjugate an individual's interest to those of society, might entail serious threats to an individual's freedom and civil liberties.
Resumo:
Nos travaux traitent des dispositifs d'orientation scolaire et professionnelle (DOSP) voués au soutien et à l'accompagnement de jeunes inégalement dotés dans leur parcours d'orientation au moment de la transition aux études supérieures. Des innovations méthodologiques étaient requises afin d'étudier cette question dans la perspective théorique de justice sociale d'Amartya Sen. Nous avons procédé à l'élaboration et à la vérification des qualités scientifiques d'outils de récolte de données dans une étude comparative internationale. Notre étude multicas se fonde sur cinq pays (Burkina Faso, Canada, France, Turquie, Suisse). Dans chacun des cas, des données qualitatives ont été récoltées sur le système éducatif, l'organisation des services et les prestations de service d'orientation. Vingt-six entretiens semi-structurés ont été menés auprès de responsables de service, de conseillères et conseillers d'orientation psychologues ainsi que de jeunes en transition vers le supérieur. La validité interne ou crédibilité des outils a été assurée tout au long de l'élaboration et des révisions du protocole de recherche, empruntant les procédés propres à l'étude de cas. La vérification de la validité de construit et de la validité externe ou transférabilité, effectuée à partir des données de la préenquête, a mis en lumière la valeur heuristique de nos outils. Au final, le cadre comparatif des DOSP, présenté en annexe, compte parmi les toutes premières formes d'opérationnalisation du cadre théorique de Sen au champ de l'orientation.
Resumo:
Les syndromes de déficiences cérébrales en créatine (CCDS) sont dus à des mutations dans les gènes GATM et G AMT (codant pour les enzymes AGAT et G AMT de la voie de synthèse de créatine) ainsi que SLC6A8 (transporteur de créatine), et génèrent une absence ou une très forte baisse de créatine (Cr) dans le cerveau, mesurée par spectroscopic de résonance magnétique. Les patients CCDS développent des handicaps neurologiques sévères. Les patients AGAT et GAMT peuvent être traités avec des doses importantes de Cr, mais gardent dans la plupart des cas des séquelles neurologiques irréversibles. Aucun traitement efficace n'existe à ce jour pour la déficience en SLC6A8. Bien que de nombreux modèles aient été développés pour comprendre la Cr cérébrale en conditions physiologiques, les pathomécanismes des CCDS ne sont pas encore compris. Des souris transgéniques pour les gènes Gatm, Gamt et Slc6a8 ont été générées, mais elles ne miment que partiellement la pathologie humaine. Parmi les CCDS, la déficience en GAMT est la plus sévère, en raison de l'accumulation cérébrale de l'intermédiaire guanidinoacétate (GAA). Alors que la toxicité cérébrale du GAA a été étudiée par exposition directe au GAA d'animaux adultes sains, les mécanismes de la toxicité du GAA en condition de déficience en GAMT dans le cerveau en développement sont encore inconnus. Le but de ce projet était donc de développer un modèle de déficience en GAMT dans des cultures 3D primaires de cellules nerveuses de rat en agrégats par knock-down du gène GAMT, en utilisant un virus adéno-associé (AAV) induisant le mécanisme d'interférence à l'ARN (RNAi). Le virus scAAV2, à la multiplicité d'infection de 1000, s'est révélé le plus efficace pour transduire tous les types de cellules nerveuses des cultures (neurones, astrocytes, oligodendrocytes), et générer un knock-down maximal de la protéine GAMT de 85% (jour in vitro 18). Cette déficience partielle en GAMT s'est révélée insuffisante pour générer une déficience en Cr, mais a causé l'accumulation attendue de GAA, à des doses comparables aux niveaux observés dans le LCR des patients GAMT. Le GAA a induit une croissance axonale anarchique accompagnée d'une baisse de l'apoptose naturelle, suivis par une induction tardive de mort cellulaire non-apoptotique. Le co-traitement par la Cr a prévenu tous les effets toxiques du GAA. Ce travail montre que l'accumulation de GAA en absence de déficience en Cr est suffisante pour affecter le développement du tissu nerveux, et suggère que des formes de déficiences en GAMT supplémentaires, ne présentant pas de déficiences en Cr, pourraient être découvertes par mesure du GAA, en particulier à travers les programmes récemment proposés de dépistage néonatal de la déficience en GAMT. -- Cerebral creatine deficiency syndromes (CCDS) are caused by mutations in the genes GATM and GAMT (respectively coding for the two enzymes of the creatine synthetic pathway, AGAT and GAMT) as well as SLC6A8 (creatine transporter), and lead to the absence or very strong decrease of creatine (Cr) in the brain when measured by magnetic resonance spectroscopy. Affected patients show severe neurological impairments. While AGAT and GAMT deficient patients can be treated with high dosages of Cr, most remain with irreversible brain sequelae. No treatment has been successful so far for SLC6A8 deficiency. While many models have helped understanding the cerebral Cr pathways in physiological conditions, the pathomechanisms underlying CCDS are yet to be elucidated. Transgenic mice carrying mutations in the Gatm, Gamt and Slc6a8 genes have been developed, but only partially mimic the human pathology. Among CCDS, GAMT deficiency is the most severe, due to the CNS accumulation of the guanidinoacetate (GAA) intermediate. While brain toxicity of GAA has been explored through direct GAA exposure of adult healthy animals, the mechanisms underlying GAA toxicity in GAMT deficiency conditions on the developing CNS are yet unknown. The aim of this project was thus to develop and characterize a GAMT deficiency model in developing brain cells by gene knockdown, by adeno-associated virus (AAV)-driven RNA interference (RNAi) in rat 3D organotypic primary brain cell cultures in aggregates. scAAV2 with a multiplicity of infection of 1000 was shown as the most efficient serotype, was able to transduce all brain cell types (neurons, astrocytes, oligodendrocytes) and to induce a maximal GAMT protein knockdown of 85% (day in vitro 18). Metabolite analysis showed that partial GAMT knockdown was insufficient to induce Cr deficiency but generated the awaited GAA accumulation at concentrations comparable to the levels observed in cerebrospinal fluid of GAMT-deficient patients. Accumulated GAA induced axonal hypersprouting paralleled with inhibition of natural apoptosis, followed by a later induction in non-apoptotic cell death. Cr supplementation led to the prevention of all GAA-induced toxic effects. This work shows that GAA accumulation without Cr deficiency is sufficient to affect CNS development, and suggests that additional partial GAMT deficiencies, which may not show the classical brain Cr deficiency, may be discovered through GAA measurement including by recently proposed neonatal screening programs for GAMT deficiency.
Resumo:
In recent years, an explosion of interest in neuroscience has led to the development of "Neuro-law," a new multidisciplinary field of knowledge whose aim is to examine the impact and role of neuroscientific findings in legal proceedings. Neuroscientific evidence is increasingly being used in US and European courts in criminal trials, as part of psychiatric testimony, nourishing the debate about the legal implications of brain research in psychiatric-legal settings. During these proceedings, the role of forensic psychiatrists is crucial. In most criminal justice systems, their mission consists in accomplishing two basic tasks: assessing the degree of responsibility of the offender and evaluating their future dangerousness. In the first part of our research, we aim to examine the impact of Neuroscientific evidence in the assessment of criminal responsibility, a key concept of law. An initial jurisprudential research leads to conclude that there are significant difficulties and limitations in using neuroscience for the assessment of criminal responsibility. In the current socio-legal context, responsibility assessments are progressively being weakened, whereas dangerousness assessments gain increasing importance in the field of forensic psychiatry. In the second part of our research we concentrate on the impact of using neuroscience for the assessment of dangerousness. We argue that in the current policy era of zero tolerance, judges, confronted with the pressure to ensure public security, may tend to interpret neuroscientific knowledge and data as an objective and reliable way of evaluating one's dangerousness and risk of reoffending, rather than their responsibility. This tendency could be encouraged by a utilitarian approach to punishment, advanced by some recent neuroscientific research which puts into question the existence of free will and responsibility and argues for a rejection of the retributive theory of punishment. Although this shift away from punishment aimed at retribution in favor of a consequentialist approach to criminal law is advanced by some authors as a more progressive and humane approach, we believe that it could lead to the instrumentalisation of neuroscience in the interest of public safety, which can run against the proper exercise of justice and civil liberties of the offenders. By advancing a criminal law regime animated by the consequentialist aim of avoiding social harms through rehabilitation, neuroscience promotes a return to a therapeutical approach to crime which can have serious impact on the kind and the length of sentences imposed on the offenders; if neuroscientific data are interpreted as evidence of dangerousness, rather than responsibility, it is highly likely that judges impose heavier sentences, or/and security measures (in civil law systems), which can be indeterminate in length. Errors and epistemic traps of past criminological movements trying to explain the manifestation of a violent and deviant behavior on a biological and deterministic basis stress the need for caution concerning the use of modern neuroscientific methods in criminal proceedings.
Resumo:
Depuis les études princeps de phase III de non-inf ériorité comparant les anticoagulants oraux directs (AOD) à la warfarine, de nombreuses études ont essayé de répondre à la question de l'efficacité et de la sécurité d'utilisation des AOD chez les patients âgés. Ces études sont des études de sous-groupes complémentaires issues des études princeps ou des études de pharmacovigilance en postmarketing utilisant des données médicoéconomiques à grande échelle. De nombreux biais, par définition, peuvent entraîner une distorsion des résultats dans de telles études, rendant leur interprétation prudente. Aucun essai randomisé contrôlé n'a à ce jour comparé les AOD à la warfarine chez des patients de 80 ans ou plus et a fortiori chez des sujets âgés fragiles. En pratique, chez le patient âgé fragile, il n'y a pas de consensus quant au choix des anticoagulants à prescrire en cas de fibrillation atriale (FA) et de la maladie thromboembolique veineuse (MTEV). Quant au choix de l'AOD à privilégier chez le sujet âgé, faute d'études de comparaison directe disponibles à ce jour, il apparaît difficile de se prononcer. Toutefois, les données disponibles, tant sur le plan pharmacologique que celles issues des études complémentaires, semblent montrer que le dabigatran offre un profil bénéfice/risque moins favorable que les autres AOD. Néanmoins, les résultats prometteurs de l'idarucizumab, antidote du dabigatran, pourraient contribuer à améliorer ce rapport à l'avenir.
Resumo:
Objectifs: Le dosage des biomarqueurs du liquide céphalorachidien (LCR) ne fait pas partie des recommandations de la démarche diagnostique de la maladie d'Alzheimer (MA) en France. Nous voulions analyser l'apport de leur dosage en pratique clinique quotidienne. Matériel et méthode: Étude rétrospective observationnelle, portant sur l'ensemble des dosages de biomarqueurs du LCR de la MA effectués entre le 1er novembre 2010 et le 30 septembre 2012 dans l'hôpital de jour (HDJ) et le service de médecine interne gériatrique (SMIG) du centre mémoire de ressources et de recherche (CMRR) des hôpitaux universitaires de Strasbourg (Alsace, France). Résultats: Quatre-vingt-dix-sept patients (femmes : 60,8 % ; âge moyen : 80 ± 6,5 ans) ont été considérés. En HDJ (n = 50), les biomarqueurs étaient utilisés pour le diagnostic positif de MA (64,0 %) ou le diagnostic différentiel entre les démences (36,0 %). Au SMIG (n = 47), leur dosage était effectué afin de confirmer une MA (19,1 %), de rechercher une pathologie cognitive sous-jacente à un syndrome confusionnel (17,0 %) ou pour diagnostiquer une démence chez des patients atteints de pathologies psychiatriques (29,8 %). Si 49,5 % des patients ont eu un diagnostic de MA confirmée, les biomarqueurs ont contribué à infirmer cette étiologie dans 9,2 % des cas. Le doute entre une MA et une autre étiologie persistait cependant encore chez 10 patients. Les analyses comparatives des taux des différents biomarqueurs ont montré que la protéine tau est observée avec un taux significativement plus élevé dans la MA que dans la démence vasculaire (p = 0,003) et à la limite de la significativité pour la maladie de Parkinson (p = 0,06). Le profil observé avec la Ptau est similaire mais avec une significativité atteinte vis-à-vis de la démence de la maladie de Parkinson (p = 0,01). En ce qui concerne l'Aβ1-42, si les taux moyens étaient les plus élevés dans les démences vasculaire et à corps de Lewy, (p < 0,0001 et p < 0,01), ils étaient plus faibles en cas de démence de la maladie de Parkinson mais sans atteindre le seuil de signification (p = 0,12). Conclusion: Cette étude a analysé l'utilisation des biomarqueurs de la MA en pratique courante. Si leur intérêt se positionne actuellement dans le diagnostic de la MA à un stade léger, ces biomarqueurs montrent leur utilité dans les situations où le diagnostic clinique est rendu difficile par un trouble psychiatrique et/ou une confusion, une clinique atypique où lorsque les tests cognitifs sont irréalisables.