741 resultados para Prédiction de cibles de microARN
Resumo:
Résumé: L'impact de la maladie d'Alzheimer (MA) est dévastateur pour la vie quotidienne de la personne affectée, avec perte progressive de la mémoire et d'autres facultés cognitives jusqu'à la démence. Il n'existe toujours pas de traitement contre cette maladie et il y a aussi une grande incertitude sur le diagnostic des premiers stades de la MA. La signature anatomique de la MA, en particulier l'atrophie du lobe temporal moyen (LTM) mesurée avec la neuroimagerie, peut être utilisée comme un biomarqueur précoce, in vivo, des premiers stades de la MA. Toutefois, malgré le rôle évident du LMT dans les processus de la mémoire, nous savons que les modèles anatomiques prédictifs de la MA basés seulement sur des mesures d'atrophie du LTM n'expliquent pas tous les cas cliniques. Au cours de ma thèse, j'ai conduit trois projets pour comprendre l'anatomie et le fonctionnement du LMT dans (1) les processus de la maladie et dans (2) les processus de mémoire ainsi que (3) ceux de l'apprentissage. Je me suis intéressée à une population avec déficit cognitif léger (« Mild Cognitive Impairment », MCI), à risque pour la MA. Le but du premier projet était de tester l'hypothèse que des facteurs, autres que ceux cognitifs, tels que les traits de personnalité peuvent expliquer les différences interindividuelles dans le LTM. De plus, la diversité phénotypique des manifestations précliniques de la MA provient aussi d'une connaissance limitée des processus de mémoire et d'apprentissage dans le cerveau sain. L'objectif du deuxième projet porte sur l'investigation des sous-régions du LTM, et plus particulièrement de leur contribution dans différentes composantes de la mémoire de reconnaissance chez le sujet sain. Pour étudier cela, j'ai utilisé une nouvelle méthode multivariée ainsi que l'IRM à haute résolution pour tester la contribution de ces sous-régions dans les processus de familiarité (« ou Know ») et de remémoration (ou « Recollection »). Finalement, l'objectif du troisième projet était de tester la contribution du LTM en tant que système de mémoire dans l'apprentissage et l'interaction dynamique entre différents systèmes de mémoire durant l'apprentissage. Les résultats du premier projet montrent que, en plus du déficit cognitif observé dans une population avec MCI, les traits de personnalité peuvent expliquer les différences interindividuelles du LTM ; notamment avec une plus grande contribution du neuroticisme liée à une vulnérabilité au stress et à la dépression. Mon étude a permis d'identifier un pattern d'anormalité anatomique dans le LTM associé à la personnalité avec des mesures de volume et de diffusion moyenne du tissu. Ce pattern est caractérisé par une asymétrie droite-gauche du LTM et un gradient antéro-postérieur dans le LTM. J'ai interprété ce résultat par des propriétés tissulaires et neurochimiques différemment sensibles au stress. Les résultats de mon deuxième projet ont contribué au débat actuel sur la contribution des sous-régions du LTM dans les processus de familiarité et de remémoration. Utilisant une nouvelle méthode multivariée, les résultats supportent premièrement une dissociation des sous-régions associées aux différentes composantes de la mémoire. L'hippocampe est le plus associé à la mémoire de type remémoration et le cortex parahippocampique, à la mémoire de type familiarité. Deuxièmement, l'activation correspondant à la trace mnésique pour chaque type de mémoire est caractérisée par une distribution spatiale distincte. La représentation neuronale spécifique, « sparse-distributed», associée à la mémoire de remémoration dans l'hippocampe serait la meilleure manière d'encoder rapidement des souvenirs détaillés sans interférer les souvenirs précédemment stockés. Dans mon troisième projet, j'ai mis en place une tâche d'apprentissage en IRM fonctionnelle pour étudier les processus d'apprentissage d'associations probabilistes basé sur le feedback/récompense. Cette étude m'a permis de mettre en évidence le rôle du LTM dans l'apprentissage et l'interaction entre différents systèmes de mémoire comme la mémoire procédurale, perceptuelle ou d'amorçage et la mémoire de travail. Nous avons trouvé des activations dans le LTM correspondant à un processus de mémoire épisodique; les ganglions de la base (GB), à la mémoire procédurale et la récompense; le cortex occipito-temporal (OT), à la mémoire de représentation perceptive ou l'amorçage et le cortex préfrontal, à la mémoire de travail. Nous avons également observé que ces régions peuvent interagir; le type de relation entre le LTM et les GB a été interprété comme une compétition, ce qui a déjà été reporté dans des études récentes. De plus, avec un modèle dynamique causal, j'ai démontré l'existence d'une connectivité effective entre des régions. Elle se caractérise par une influence causale de type « top-down » venant de régions corticales associées avec des processus de plus haut niveau venant du cortex préfrontal sur des régions corticales plus primaires comme le OT cortex. Cette influence diminue au cours du de l'apprentissage; cela pourrait correspondre à un mécanisme de diminution de l'erreur de prédiction. Mon interprétation est que cela est à l'origine de la connaissance sémantique. J'ai également montré que les choix du sujet et l'activation cérébrale associée sont influencés par les traits de personnalité et des états affectifs négatifs. Les résultats de cette thèse m'ont amenée à proposer (1) un modèle expliquant les mécanismes possibles liés à l'influence de la personnalité sur le LTM dans une population avec MCI, (2) une dissociation des sous-régions du LTM dans différents types de mémoire et une représentation neuronale spécifique à ces régions. Cela pourrait être une piste pour résoudre les débats actuels sur la mémoire de reconnaissance. Finalement, (3) le LTM est aussi un système de mémoire impliqué dans l'apprentissage et qui peut interagir avec les GB par une compétition. Nous avons aussi mis en évidence une interaction dynamique de type « top -down » et « bottom-up » entre le cortex préfrontal et le cortex OT. En conclusion, les résultats peuvent donner des indices afin de mieux comprendre certains dysfonctionnements de la mémoire liés à l'âge et la maladie d'Alzheimer ainsi qu'à améliorer le développement de traitement. Abstract: The impact of Alzheimer's disease is devastating for the daily life of the affected patients, with progressive loss of memory and other cognitive skills until dementia. We still lack disease modifying treatment and there is also a great amount of uncertainty regarding the accuracy of diagnostic classification in the early stages of AD. The anatomical signature of AD, in particular the medial temporal lobe (MTL) atrophy measured with neuroimaging, can be used as an early in vivo biomarker in early stages of AD. However, despite the evident role of MTL in memory, we know that the derived predictive anatomical model based only on measures of brain atrophy in MTL does not explain all clinical cases. Throughout my thesis, I have conducted three projects to understand the anatomy and the functioning of MTL on (1) disease's progression, (2) memory process and (3) learning process. I was interested in a population with mild cognitive impairment (MCI), at risk for AD. The objective of the first project was to test the hypothesis that factors, other than the cognitive ones, such as the personality traits, can explain inter-individual differences in the MTL. Moreover, the phenotypic diversity in the manifestations of preclinical AD arises also from the limited knowledge of memory and learning processes in healthy brain. The objective of the second project concerns the investigation of sub-regions of the MTL, and more particularly their contributions in the different components of recognition memory in healthy subjects. To study that, I have used a new multivariate method as well as MRI at high resolution to test the contribution of those sub-regions in the processes of familiarity and recollection. Finally, the objective of the third project was to test the contribution of the MTL as a memory system in learning and the dynamic interaction between memory systems during learning. The results of the first project show that, beyond cognitive state of impairment observed in the population with MCI, the personality traits can explain the inter-individual differences in the MTL; notably with a higher contribution of neuroticism linked to proneness to stress and depression. My study has allowed identifying a pattern of anatomical abnormality in the MTL related to personality with measures of volume and mean diffusion of the tissue. That pattern is characterized by right-left asymmetry in MTL and an anterior to posterior gradient within MTL. I have interpreted that result by tissue and neurochemical properties differently sensitive to stress. Results of my second project have contributed to the actual debate on the contribution of MTL sub-regions in the processes of familiarity and recollection. Using a new multivariate method, the results support firstly a dissociation of the subregions associated with different memory components. The hippocampus was mostly associated with recollection and the surrounding parahippocampal cortex, with familiarity type of memory. Secondly, the activation corresponding to the mensic trace for each type of memory is characterized by a distinct spatial distribution. The specific neuronal representation, "sparse-distributed", associated with recollection in the hippocampus would be the best way to rapidly encode detailed memories without overwriting previously stored memories. In the third project, I have created a learning task with functional MRI to sudy the processes of learning of probabilistic associations based on feedback/reward. That study allowed me to highlight the role of the MTL in learning and the interaction between different memory systems such as the procedural memory, the perceptual memory or priming and the working memory. We have found activations in the MTL corresponding to a process of episodic memory; the basal ganglia (BG), to a procedural memory and reward; the occipito-temporal (OT) cortex, to a perceptive memory or priming and the prefrontal cortex, to working memory. We have also observed that those regions can interact; the relation type between the MTL and the BG has been interpreted as a competition. In addition, with a dynamic causal model, I have demonstrated a "top-down" influence from cortical regions associated with high level cortical area such as the prefrontal cortex on lower level cortical regions such as the OT cortex. That influence decreases during learning; that could correspond to a mechanism linked to a diminution of prediction error. My interpretation is that this is at the origin of the semantic knowledge. I have also shown that the subject's choice and the associated brain activation are influenced by personality traits and negative affects. Overall results of this thesis have brought me to propose (1) a model explaining the possible mechanism linked to the influence of personality on the MTL in a population with MCI, (2) a dissociation of MTL sub-regions in different memory types and a neuronal representation specific to each region. This could be a cue to resolve the actual debates on recognition memory. Finally, (3) the MTL is also a system involved in learning and that can interact with the BG by a competition. We have also shown a dynamic interaction of « top -down » and « bottom-up » types between the pre-frontal cortex and the OT cortex. In conclusion, the results could give cues to better understand some memory dysfunctions in aging and Alzheimer's disease and to improve development of treatment.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Introduction Le canal lombaire étroit symptomatique est de plus en plus fréquent. Le traitement dépend des signes cliniques et des résultats radiologiques. Mais actuellement il n'y a pas de consensus concernant la classification radiologique. Le but de notre article est d'étudier la relation entre deux paramètres morphologiques radiologiques récemment décrits sur des examens par IRM. Le premier est le « signe de sédimentation » (Sedimentation Sign) et le second est le grade morphologique de la sténose lombaire (Morphological Grade), tous deux décrit en 2010. Matériel et méthode Nous avons étudié des examens IRM de 137 patients suivit dans notre établissement. De ces 137, 110 étaient issus d'une base de donnée de patients avec une sténose lombaire dont la Symptomatologie était typique. Dans ce groupe, 73 patients avaient été traité chirurgicalement et 37 conservativement, dépendant de la sévérité des symptômes. Un troisième groupe, le groupe contrôle, était formé de 27 patients ne présentant que des douleurs lombaires basses sans sciatalgie. La sévérité de la sténose a été évaluée sur les examens IRM au niveau du disque en utilisant les 4 grades de la classification morphologique, de A à D. La présence d'un signe de sédimentation a été, quand à lui, notée au niveau du pédicule, au-dessus et au-dessous du niveau présentant la sténose maximale, comme décrit dans l'article original. Résultat La présence d'un signe de sédimentation positif a été observée chez 58% des patients présentant un grade morphologique B, 69% chez les patients avec un grade C et 76% des patients avec un grade D. Dans le groupe de patient traité chirurgicalement pour une sténose canalaire, 67% des patients présentaient un signe de sédimentation positif, 35% dans le groupe du traitement conservateur, et 8 % dans le groupe contrôle. En ce qui concerne la classification du grade morphologique, nous avons regroupé les grade C et D. Il y avait 97% de patients avec un grade C et D dans le groupe du traitement chirurgical, 35 % dans le groupe du traitement conservateur et 18% dans le groupe contrôle. Nous avons donc calculé que la présence d'un signe de sédimentation positif chez les patients avec une sténose lombaire symptomatique augmente le risque d'avoir besoin d'une intervention de l'ordre de 3.5 fois (OR=3.5). En utilisant la classification du grade morphologique, nous avons calculé un risque encore plus élevé. Un patient avec une sténose canalaire de grade C ou D a 65 fois plus de risque d'avoir besoin d'une intervention (OR=65). Conclusion : Les résultats montrent une corrélation entre ces deux paramètres morphologiques. Mais la prédiction du besoin d'une intervention n'est pas équivalente. Un tiers des patients dans le groupe du traitement chirurgical n'avaient pas de signe de sédimentation positif. Ce signe apparaît donc comme un moins bon prédicteur pour le choix du traitement comparé à la sévérité de la sténose jugée avec le grade morphologique (OR 3.5 vs 65).
Resumo:
The HIV protease inhibitors (HIV-PIs) are among the most potent antiviral drugs for the HIV infection. Treatment of patients with HIV-PIs has been linked with development of side effects including dyslipidemia, lipodystrophy syndrome and cardiovascular complications. Moreover, these drugs have shown anti-tumoral activity in non-infected patients but little is known about the involved molecular mechanism for these off-target effects. Here we propose that the HIV-PI Nelfinavir could block a cellular protease thus causing the observed phenotypes. We firstly focus our attention on a cellular protein, DDI2, showing sequence and structural conservation with the HIV protease. We applied cellular and in vitro approaches to produce a correctly folded recombinant protein in order to investigate the presence of a proteolytic activity. Despite the fact that we could identify two techniques that can be applied to produce a folded recombinant DDI2, no proteolytic activity has been identified in the present study. However, we could observe that decreasing the DDI2 levels recapitulated some phenotype observed in presence of HIV-PIs, including the phosphorylation of the protein translation regulators eIF2a and eEF2. As an alternative approach to identify cellular targets for HIV-PIs, we applied a proteomic screening called Slice-SILAC. We focused our attention on the defective maturation of Lamin A, a member of the nuclear lamina, induced by the block of the cellular protease Zmpste24. We demonstrated that Nelfinavir induced accumulation of Prelamin A and nuclear shape defects and in addition caused presence of cytosolic DNA, probably due to TREX1 downregulation. We showed that these phenotypes correlated with activation of the AIM2 inflammasome and IL-lß release. These findings suggest that DDI2 and Zmpste24 are direct or indirect cellular targets for the HIV-PIs and indicate a possible role for these proteins in promoting off-target effects and anti¬tumoral activity observed in HIV-PI treated patients. -- Les inhibiteurs de la protéase du VIH (IP-VIH) sont parmi les médicaments antiviraux les plus efficaces pour l'infection par le VIH. Le traitement des patients avec les IP-VIH cause des effets secondaires comprenant la dyslipidémie, le syndrome de lipodystrophie et les complications cardio-vasculaires. De plus, ces médicaments ont montré une activité anti-tumorale chez les patients non infectés, toutefois le mécanisme moléculaire impliqué dans ces effets hors-cible reste inconnu. Nous proposons que l'IP-VIH Nelfinavir puisse bloquer une protéase cellulaire provoquant les phénotypes observés. De ce fait, nous avons concentré notre attention sur une protéine cellulaire, DDI2, qui possède une séquence et une structure proche de celle de la protéase du VIH. Nous avons appliqué des approches cellulaire et in vitro pour produire une protéine recombinante correctement repliée afin d'étudier son activité protéolytique. Malgré le fait que nous avons pu identifier deux techniques qui peuvent être appliquées pour produire une protéine DDI2 recombinante correctement repliée, aucune activité protéolytique n'a été identifiée dans la présente étude. De plus, nous avons pu observer que la réduction de DDI2 récapitule les phénotypes observé avec le IP-VIH, y compris les phosphorylations de eIF2a et eEF2, impliquées dans la régulation de la traduction protéique. Une approche alternative, appelée Slice-SILAC, a été utilisée afin d'identifier de nouvelles cibles cellulaires du Nelfinavir. Nous avons concentré notre attention sur la maturation défectueuse de la Lamine A, un membre de la lamine nucléaire, induite par l'inhibition de la protéase cellulaire Zmpste24. Nous avons démontré que le Nelfinavir induit une accumulation de Prélamine A déformant la membrane nucléaire et la présence d'ADN cytosolique, probablement en raison de la régulation négative de TREX1. Nous avons montré que ces phénotypes causent l'activation de l'inflammasome AIM2 et la sécrétion d'IL-lß. Ces résultats suggèrent que DDI2 et Zmpste24 sont des cibles cellulaires pour les IP-VIH et indiquent un possible rôle pour ces protéines dans l'apparition d'effets secondaires ainsi que dans l'activité anti-tumorale observée chez les patients traités avec les IP-VIH.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Les importants progrès dans la qualité et la résolution des images obtenues par «absorptiométrie biphotonique à rayons X» ou DXA ont amélioré certaines modalités existantes et favorisé le développement de nouvelles fonctions permettant d'affiner de manière significative la prise en charge de nos patients dans diverses pathologies. On peut par exemple améliorer la prédiction du risque fracturaire par l'analyse indirecte de la micro et de la macroarchitecture osseuse, rechercher les marqueurs de pathologies associées (recherche de fractures vertébrales ou de fractures fémorales atypiques), ou évaluer le statut métabolique par la mesure de la composition corporelle. Avec les appareils DXA les plus performants, on pourra bientôt déterminer l'âge osseux, estimer le risque cardiovasculaire (par la mesure de la calcification de l'aorte abdominale), ou prédire la progression de l'arthrose articulaire et son évolution après la prise en charge chirurgicale dans la routine clinique. The significant progress on the quality and resolution of the images obtained by "Dual X-ray Absorptiometry" or DXA has permitted on one hand to improve some existing features and on the other to develop new ones, significantly refining the care of our patients in various pathologies. For example, by improving the prediction of fracture risk by indirect analysis of micro- and macro-architecture of the bone, by looking for markers of associated bone diseases (research vertebral fractures or atypical femoral fractures), or by assessing the metabolic status by the measurement of body composition. With the best performing DXA devices we will soon be able, in clinical routine, to determine bone age, to estimate cardiovascular risk (by measuring the calcification of the abdominal aorta) or to predict the progression of joint osteoarthritis and its evolution after surgical management.
Resumo:
La plupart des inhibiteurs de protéines kinases développés en nombre à la suite de l'imatinib partagent avec celui-ci les caractéristiques des médicaments candidats au suivi thérapeutique pharmacologique : importante variabilité pharmacocinétique entre patients, influences de traits pharmacogénétiques et d'atteintes d'organes, potentiel d'interactions médicamenteuses, relations stables entre exposition et efficacité ou toxicité, index thérapeutique restreint. Alors que le profilage génétique des tumeurs ouvre la voie vers une oncologie personnalisée quant au choix des molécules thérapeutiques, le monitoring des concentrations et l'individualisation des posologies devraient assurer que chaque patient est exposé aux concentrations lui garantissant la meilleure efficacité pour le minimum de toxicité. Pour cela, il faut d'abord disposer d'études observationnelles décrivant la pharmacocinétique de population du médicament et les concentrations attendues sous une posologie donnée. Des études pharmacodynamiques doivent aussi déterminer les relations concentration-efficacité-toxicité, dont découlent les cibles d'exposition à viser par le traitement. Sur ces bases, une stratégie rationnelle de monitoring peut être élaborée, puis testée dans des essais cliniques randomisés contrôlés. Les progrès se font attendre dans ce domaine, en raison non seulement du désintérêt des groupes pharmaceutiques, des cliniciens et des autorités, mais aussi des difficultés inhérentes au processus de suivi des concentrations, tel qu'il se pratique aujourd'hui. Des innovations technologiques associant des méthodes de mesure miniaturisées intégrées à des systèmes électroniques et une connexion à des outils informatiques d'assistance à l'interprétation pourraient prochainement mettre ce monitoring à la disposition immédiate des oncologues sur le lieu de consultation.
Resumo:
La pathologie mammaire offre de nombreuses applications à l'immunohistochimie. Ses indications sont discutées au fil de différentes situations pratiques regroupées sous quatre rubriques : l'aide au diagnostic histologique, l'apport au pronostic, la prédiction de la réponse à l'hormonothérapie ou à la chimiothérapie et l'aide à la surveillance des patientes. L'immunohistochimie est appelée à se développer dès lors que les indications sont validées que les techniques sont standardisées et qu'un suivi dans la qualité est assuré.
Resumo:
Second-generation antipsychotics (SGAs) have become the first-line antipsychotic treatment for psychotic disorders due to their better overall tolerance compared to classical antipsychotics. However, metabolic side effects such as weight gain are frequently described during treatment with SGAs and/or other psychotropic drugs including some antidepressants and mood stabilizers, which may also result in poor adherence to treatment. The aim of this work was to investigate different methods to predict common side effects, in particular weight gain during treatment with weight gain inducing psychotropic drugs. Firstly, clinical data were used to determine the potential predictive power of a one month weight gain on weight increase after three and 12 months of treatment (n=351 patients). A fast and strong weight gain of >5% after a period of one month (>5%WG) was found to be the best predictor for an important weight gain at three (>15%) and 12 months (>20%). Similar analyses in an independent cohort of psychiatric adolescents (n=42), showed that a comparable >4% weight gain at one month is the best predictor for an important weight gain at three months (>15%). Secondly, we aimed to determine whether an extensive analysis of genes could be used, in addition to clinical factors, to predict patients at risk for >5%WG or for type 2 diabetes (T2D). Adding genetic markers to clinical variables to predict >5%WG increased significantly the area under the curve (AUC) of the analysis (AUCfinai:0.92, AUCdmicai:0.75, pcO.OOOl, n=248). Conversely, genetic risk scores were found to be associated with T2D (OR: 2.5, p=0.03, n=285) but without a significant increase of AUC'when compared to the prediction based to clinical factors alone. Finally, therapeutic drug monitoring was used to predict extrapyramidal symptoms during risperidone treatment (n=150). Active moiety (sum of risperidone and of its active metabolite 9- hydroxyrisperidone plasma concentrations) of >40 ng/ml should be targeted only in case of insufficient response. These results highlight different approaches for personalizing psychotropic treatments in order to reduce related side effects. Further research is needed, in particular on the identification of genetic markers, to improve the implementation of these results into clinical practice. Résumé Les antipsychotiques atypiques (APA) sont devenus le traitement antipsychotique de première intention pour le traitement des psychoses, grâce à un profil d'effets secondaires plus favorables comparé aux antipsychotiques typiques. Néanmoins, d'autres effets indésirables d'ordre métabolique (ex. prise pondérale) sont observés sous APA, stabilisateurs de l'humeur et/ou certains antidépresseurs, pouvant aussi limiter l'adhérence au traitement. L'objectif de ce travail est d'explorer différentes méthodes permettant de prédire des effets secondaires courants, en particulier la prise de poids durant un traitement avec des psychotropes pouvant induire un tel effet. Dans une première partie, des données cliniques ont été évaluées pour leurs potentiels prédictifs d'une prise de poids à un mois sur une prise de poids à trois et 12 mois de traitement (n=351 patients). Une prise de poids rapide et forte >5% à un mois (PP>5%) s'est avérée être le meilleur prédicteur pour une prise pondérale importante à trois (>15%) et 12 (>20%) mois de traitement. Des analyses similaires dans une cohorte pédiatrique (n=42) ont indiqué une prise de poids >4% à un mois comme le meilleur prédicteur pour une prise pondérale importante (>15%) à trois mois de traitement. Dans une deuxième partie, des marqueurs génétiques, en complément aux données cliniques, ont été analysés pour leur contribution potentielle à la prédiction d'une PP>5% et au dépistage du diabète de type 2 (DT2). L'ajout de variants génétiques aux données cliniques afin de prédire une PP>5% a augmenté significativement l'aire sous la courbe (ASC) de l'analyse (ASCflnai:0.92, ASCC|inique:0.75, p<0.0001, n=248). Concernant le DT2, un score génétique est associé au DT2 (OR: 2.5, p=0.03, n=285), néanmoins aucune augmentation significative de l'ASC n'a été observée par rapport à l'analyse avec les données cliniques seules. Finalement, des mesures de concentrations plasmatiques de médicaments ont été utilisées pour prédire la survenue de symptômes extrapyramidaux sous rispéridone (n=150). Cette analyse nous a permis d'établir qu'une concentration plasmatique de rispéridone associée à son métabolite actif >40 ng/ml ne devrait être recherchée qu'en cas de réponse clinique insuffisante. Ces différents résultats soulignent différentes approches pour personnaliser la prescription de psychotropes afin de réduire la survenue d'effets secondaires. Des études supplémentaires sont néanmoins nécessaires, en particulier sur l'identification de marqueurs génétiques, afin d'améliorer l'implémentation de ces résultats en pratique clinique. Résumé large publique Les antipsychotiques atypiques et autres traitements psychotropes sont couramment utilisés pour traiter les symptômes liés à la schizophrénie et aux troubles de l'humeur. Comme pour tout médicament, des effets secondaires sont observés. L'objectif de ce travail est d'explorer différentes méthodes qui permettraient de prédire la survenue de certains effets indésirables, en particulier une prise de poids et la survenue d'un diabète. Dans une première partie, nous avons évalué l'effet d'une prise de poids précoce sur une prise de poids au long terme sous traitement psychotrope. Les analyses ont mis en évidence dans une population psychiatrique qu'une prise de poids à un mois >5% par rapport au poids initial permettait de prédire une prise pondérale importante après trois (>15%) et 12 (>20%) mois de traitement. Un résultat semblable a. été observé dans un autre groupe de patients exclusivement pédiatriques. Dans une deuxième partie, nous avons évalué la contribution potentielle de marqueurs génétiques à la prédiction d'une prise pondérale de >5% après un mois de traitement ainsi que dans la survenue d'un diabète de type 2. Pour la prise de poids, la combinaison des données génétiques aux données cliniques a permis d'augmenter de 17% la précision de la prédiction, en passant de 70% à 87%. Concernant la survenue d'un diabète, les données génétiques n'ont pas amélioré la prédiction. Finalement, nous avons analysé la relation possible entre les concentrations sanguines d'un antipsychotique atypique couramment utilisé, la rispéridone, et la survenue d'effets secondaires (ici les tremblements). Il est ressorti de cette étude qu'une concentration plasmatique du médicament supérieure à 40 ng/ml ne devrait être dépassée qu'en cas de réponse thérapeutique insuffisante, au risque de voir augmenter la survenue d'effets secondaires du type tremblements. Ces résultats démontrent la possibilité de prédire avec une bonne précision la survenue de certains effets secondaires. Cependant, en particulier dans le domaine de la génétique, d'autres études sont nécessaires afin de confirmer les résultats obtenus dans nos analyses. Une fois cette étape franchie, il serait possible d'utiliser ces outils dans la pratique clinique. A terme, cela pourrait permettre au prescripteur de sélectionner les traitements les mieux adaptés aux profils spécifiques de chaque patient.
Resumo:
Introduction: Le retard de croissance intra-utérin (RCIU) est défini comme une incapacité du foetus à atteindre son plein potentiel de croissance. C'est une complication fréquente (affectant ~8% des grossesses), associée à un risque accru de mortalité et morbidité périnatales et de maladies chroniques à l'âge adulte, telles que les maladies coronariennes, l'hypertension, ou le diabète. Une croissance foetale adéquate est déterminée principalement par la disponibilité en oxygène et nutriments apportés au foetus par la circulation ombilico-placentaire. Chez l'homme, le tonus vasculaire ombilical est régulé majoritairement par la voie du monoxyde d'azote (NO)/GMPc. Nous avons émis l'hypothèse que le RCIU pourrait être associé à des altérations dans la régulation de la circulation ombilicale, en particulier dans la voie du NO/GMPc. Méthodes: Cette étude a été conçue pour identifier dans des cordons ombilicaux, les changements structurels, fonctionnels et moléculaires survenant en cas de RCIU, en particulier dans la veine om-bilicale. Résultats: De façon générale, le diamètre du cordon ombilical était significativement réduit chez les nouveau-nés avec RCIU par rapport aux contrôles. Les mesures histomorphométriques ont mis en évidence une diminution significative de la surface transversale totale ainsi que de muscle lisse dans la veine ombilicale en cas de RCIU. Les études pharmacologiques effectuées sur des anneaux vasculaires de veines ombilicales ont montré une diminution de la tension maximale induite par des vasoconstricteurs chez les garçons avec RCIU, et une réduction significative de la relaxation induite par le NO chez les filles avec RCIU. Cette altération de la relaxation s'accompagne de modifications de plusieurs composants de la voie du NO/GMPc au niveau du muscle lisse de la veine ombilicale des filles avec RCIU. Enfin l'addition d'un inhibiteur non-spécifique des phosphodiesterases (PDEs) a permis d'améliorer la réponse au NO dans tous les groupes et surtout de compenser la réduction de la relaxation induite par le NO chez les filles avec RCIU. Conclusion: Cette étude a permis de mettre en évidence des modifications structurelles dans le cordon ombilical de nouveau-nés présentant un RCIU, ainsi que des changements fonctionnels et moléculaires dans la veine ombilicale, en particulier dans la voie du NO/GMPc, qui pourraient contribuer au développement du RCIU. L'effet bénéfique de l'inhibition des PDEs sur la relaxation suggère qu'elles pourraient constituer des cibles thérapeutiques potentielles.
Resumo:
L'encéphalopathie post-anoxique après arrêt cardiaque (AC) est une cause féquente d'admission pour coma en réanimation. Depuis les recommandations de 2003, l'hypothermie thérapeutique (HT) est devenue un standard de traitement après AC et est à l'origine de l'amélioration du pronostic au cours de cette derniere décennie. Les élements prédicteurs de pronostic validés par l'Académie Américaine de Neurologie avant l'ère de l'HT sont devenus moins précis. En effet, l'HT et la sédation retardent la reprise de la réponse motrice et peuvent altérer la valeur prédictive des réflexes du tronc cérébral. Une nouvelle approche est nécessaire pour établir un pronostic après AC et HT. L'enregistrement (pendant l'HTou peu après) d'une activité électroencéphalographique réactive et/ou continue est un bon prédicteur de récupération neurologique favorable après AC. Au contraire, la présence d'un tracé non réactif ou discontinu de type burst-suppression, avec une réponse N20 absente bilatérale aux potentiels évoqués somatosensoriels, sont presqu'à 100 % prédictifs d'un coma irréversible déjà à 48 heures après AC. L'HT modifie aussi la valeur prédictive de l'énolase neuronale spécifique (NSE), principal biomarqueur sérique de la lésion cérébrale post-anoxique. Un réveil avec bonne récupération neurologique a été récemment observé par plusieurs groupes chez des patients présentant des valeurs de NSE>33 μg/L à 48-72 heures : ce seuil ne doit pas être utilisé seul pour guider le traitement. L'imagerie par résonance magnétique de diffusion peut aider à prédire les séquelles neurologiques à long terme. Un réveil chez les patients en coma post-anoxique est de plus en plus observé, malgré l'absence précoce de signes moteurs et une élévation franche des biomarqueurs neuronaux. En 2014, une nouvelle approche multimodale du pronostic est donc nécessaire, pour optimiser la prédiction d'une évolution clinique favorable après AC. Hypoxic-ischemic encephalopathy after cardiac arrest (CA) is a frequent cause of intensive care unit (ICU) admission. Incorporated in all recent guidelines, therapeutic hypothermia (TH) has become a standard of care and has contributed to improve prognosis after CA during the past decade. The accuracy of prognostic predictors validated in 2006 by the American Academy of Neurology before the era of TH is less accurate. Indeed, TH and sedation may delay the recovery of motor response and alter the predictive value of brainstem reflexes. A new approach is needed to accurately establish prognosis after CA and TH. A reactive and/or continuous electroencephalogram background (during TH or shortly thereafter) strongly predicts good outcome. On the contrary, unreactive/spontaneous burst-suppression electroencephalogram pattern, together with absent N20 on somatosensory evoked potentials, is almost 100% predictive of irreversible coma. TH also affects the predictive value of neuronspecific enolase (NSE), the main serum biomarker of postanoxic injury. A good outcome can occur despite NSE levels >33 μg/L, so this cutoff value should not be used alone to guide treatment. Diffusion magnetic resonance imagery may help predict long-term neurological sequelae. Awakening from postanoxic coma is increasingly observed, despite the absence of early motor signs and pathological elevation of NSE. In 2014, a multimodal approach to prognosis is recommended to optimize the prediction of outcome after CA.
Resumo:
Avec cette thèse de doctorat nous proposons une réflexion transversale concernant les relations entre infrastructures de transport et développement territorial dans des espaces dits « intermédiaires ». Le concept d'espace intermédiaire, relativement nouveau en géographie, est conçu en fonction d'une double approche : celle des infrastructures où les espaces intermédiaires constituent des zones de transit obligées entre des pôles urbains hiérarchiquement supérieurs (par rapport une échelle horizontale) et celle des frontières où les espaces intermédiaires constituent des territoires de coopération entre différents niveaux politico-institutionnels (par rapport à une échelle verticale). Cette problématique de recherche est traitée aussi bien du point de vue théorique qu'avec des études de cas portant sur les effets des nouvelles infrastructures de transports dans la région transfrontalière insubrique (entre le Canton du Tessin et la Lombardie). L'objectif visé est de défendre un scénario d'organisation spatiale polycentrique à plusieurs niveaux comme solution pour le développement durable et cohérent de ces espaces intermédiaires. Ainsi, pour le « niveau macro », nous proposons une analyse des changements d'accessibilité spatiale et des potentiels de développement territorial pour les agglomérations concernées par la mise en service du nouveau tunnel ferroviaire de base du Monte Ceneri (TBC) et de la nouvelle ligne Lugano/Como-Mendrisio-Varese-Malpensa (FMV) à l'horizon 2020. Pour le « niveau meso », nous analysons les effets de la nouvelle ligne FMV en termes de potentiel de densification polycentrique autours des gares ferroviaires. Pour le « niveau micro », nous proposons une analyse sur les comportements de mobilité ainsi que des améliorations ciblées du système de transport pour la ville de Mendrisio visant à promouvoir le développement polycentrique de cette commune. De plus, un système d'analyse permettant de mettre en lien les divers facteurs explicatifs dans l'analyse des relations entre les nouvelles infrastructures de transport et les effets sur la mobilité et le développement territorial est également élaboré et testé dans notre recherche. -- With this Ph.D. thesis we investigate the relationship between transport infrastructures and territory development inside the so called "in-between spaces". The idea of "in-between space", relatively novel in geography, is the formal outcome of a double approach: the one of the infrastructures, saying that these spaces can be described as areas of constrained transit between urban centres of superior hierarchical level (on a horizontal scale), and the one of the borders, stating that in-between spaces are areas of cooperation between various political-institutional levels. The above mentioned research issues are deepened both at theoretical and empirical level, being the latter based on field studies of the cross-boundary Western-Lombard area (between the Swiss canton of Ticino and the Italian region of Lombardy). This research pursues the goal of defending the argument that a multi-level polycentric spatial scenario can be a possible solution fora sustainable development of the above described in- between areas. From a "macro" perspective, what we submit here is an analysis on the expected changes in spatial accessibility and on the potential territorial development for the built-up areas influenced by the construction of the new train tunnel of the Monte Ceneri (TBC) and of the new railway line Lugano/Como-Mendrisio-Varese-Malpensa (FMV). At a "meso" level we analyse the effects exerted by the new FMV line taking into account the potential densification of the areas surrounding the railway stations. Finally, at a "micro" level, we analyse the mobility behaviours in the town of Mendrisio and we propose some possible improvements to the local public transport system, with the scope to promote a polycentric development of this municipality. Moreover, we developed and tested an analytic system able to define the existing links between the various explaining factors characterizing the relationship between new transport infrastructures and effects on mobility. -- With this Ph.D. thesis we investigate the relationship between transport infrastructures and territory development inside the so called "in-between spaces". The idea of "in-between space", relatively novel in geography, is the formal outcome of a double approach: the one of the infrastructures, saying that these spaces can be described as areas of constrained transit between urban centres of superior hierarchical level (on a horizontal scale), and the one of the borders, stating that in-between spaces are areas of cooperation between various political-institutional levels. The above mentioned research issues are deepened both at theoretical and empirical level, being the latter based on field studies of the cross-boundary Western-Lombard area (between the Swiss canton of Ticino and the Italian region of Lombardy). This research pursues the goal of defending the argument that a multi-level polycentric spatial scenario can be a possible solution for a sustainable development of the above described in- between areas. From a "macro" perspective, what we submit here is an analysis on the expected changes in spatial accessibility and on the potential territorial development for the built-up areas influenced by the construction of the new train tunnel of the Monte Ceneri (TBC) and of the new railway line Lugano/Como-Mendrisio-Varese-Malpensa (FMV). At a "meso" level we analyse the effects exerted by the new FMV line taking into account the potential densification of the areas surrounding the railway stations. Finally, at a "micro" level, we analyse the mobility behaviours in the town of Mendrisio and we propose some possible improvements to the local public transport system, with the scope to promote a polycentric development of this municipality. Moreover, we developed and tested an analytic system able to define the existing links between the various explaining factors characterizing the relationship between new transport infrastructures and effects on mobility.
Resumo:
La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
L'adoption de l'IRM dans le parcours diagnostique a déterminé la transition des biopsies aléatoires aux biopsies ciblées vers les lésions visibles à l'imagerie. L'utilisation de logiciels rendant possible la fusion d'images IRM et échographiques permet d'améliorer significativement la précision diagnostique de ces biopsies. De plus, pour déterminer l'éligibilité d'un patient à une thérapie focale, davantage de précision diagnostique est requise au niveau de toute la glande ; par conséquent, des biopsies avec une densité d'échantillonnage plus élevée par voie transpérinéale peuvent être proposées.Les nouvelles techniques de biopsie de la prostate permettent une prise en charge personnalisée grâce à une meilleure caractérisation de l'agressivité et de l'extension locale du cancer de la prostate. The adoption of multiparametric MRI within the diagnostic pathway has allowed urologists to move from random biopsy to targeted biopsy directed towards MR-visible lesions. The use of software for MR to TRUS fusion may enhance the diagnostic accuracy of targeted biopsy. To determine the eligibility for tissue-preserving approaches, further precision is required, and template prostate mapping biopsy may be offered. The employment of novel biopsy techniques provide better characterisation of the disease, and allows a tailored approach to a single subject.